今年政府工作报告强调,制定支持数字经济高质量发展政策,积极推进数字产业化、产业数字化,促进数字技术和实体经济深度融合。其中,“人工智能+”行动提出了以生成式人工智能为代表的人工智能技术即将加速落地各行各业,催生垂直行业的新质生产力。
生成式人工智能技术作为发展新质生产力的重要引擎,正在成为各行各业数字化转型的重要驱动力。然而,作为一项新兴的数字技术,人工智能也面临着一些挑战,比如数据隐私保护和模型可解释性问题。这些问题在医疗、金融、政府治理和自动驾驶等高风险行业领域尤为突出,需要我们着重突破,以实现负责任的人工智能应用,促进更广泛的垂直行业转型升级。
“人工智能+”行动的落地需要依靠实体经济和传统产业的智能化改造,以实现行业颠覆式创新,打造新的发展动能。但是,当前的大语言模型人工智能技术在训练、部署和应用过程中,不可避免地会接触到涉及公民个人隐私和企业核心信息的数据。具体使用场景下,个人和企业在提问环节、回答环节、训练环节和存储环节都存在隐私泄露的隐患。例如,用户在不知情的情况下可能向大模型透露个人或非公开信息,聊天记录可能包含敏感数据并面临网络攻击风险,大模型在训练过程中也可能将这些敏感数据“幻觉”到其他用户的对话回答中。对于金融、政府治理等低容错率、高信任度行业来说,更需要对所有环节的风险做到“零容忍”。
为了解决人工智能技术带来的隐私风险问题,我们需要推动人工智能大模型私有化部署。私有化部署能够提供更高的数据安全性与隐私保护,帮助用户获得更加定制化的人工智能应用,同时避免非公开数据外流。在技术发展方面,要构建形成数据存储安全、数据使用合规、数据流向透明的负责任的人工智能技术,并加快政策法规落地实施。数据进入模型训练前,要严格执行数据加密协议,做好密钥管理策略,利用匿名化处理技术完成数据脱敏,重点把关数据访问控制。对于重点行业模型落地,优先考虑本地私有化部署方案,以满足企业数据治理与监管责任落地的要求。一旦高敏感数据混入大语言模型,大模型应当有能力“删除”或“遗忘”特定数据特征,未来人工智能技术研发亟须落实数据“删除”义务,提高对恶劣突发事件的及时处置能力,消除负面影响。
人工智能技术落地垂直行业的另一个重大挑战是模型可解释性问题。随着模型参数和深度的爆炸式增长,模型的决策过程正变得越来越复杂,成为难以解释的“算法黑箱”。可解释性是打造可靠、可信、公平、安全的负责任的人工智能技术的基础支撑,也是人工智能技术进入更广泛行业的先决条件。一方面,人工智能技术的落地需要更好的审计路径和问责机制,例如自动驾驶汽车故障产生的原因,医疗诊断决策的步骤等,只有能够回答这些问题才能消除公众和企业对人工智能产品的怀疑和不信任。另一方面,人工智能大模型已经展现出许多前所未有的能力,包括思维推理、上下文学习、指令遵循等,打开能力背后成因和机制的“黑箱”,也是推动人工智能技术向高水平跃升的重要路径。
为了形成可解释性人工智能,我们需要从人工智能的全生命周期入手,突破模型设计、垂直应用部署、模型效果评估阶段的关键问题。模型设计上,针对简单模型,采用决策树等自身较为透明清晰的架构,针对复杂的深度学习模型,尝试用代理模型提供模型解释,帮助用户理解输入的特征是如何影响模型决策的。垂直应用部署时,利用可解释性增强工具提高模型透明度,提供决策过程的详细记录和解释,使用相关方法计算每个特征对结果的贡献度。模型效果评估时,亟须建立超越定性评估的量化解释方法,统筹考虑模型性能、覆盖率、忠实度等指标,最大化降低模型落地后的监管审计风险。