当前,世界正经历着前所未有的技术变革浪潮,人工智能技术已成为未来数字经济转型升级的关键驱动力。人工智能的迅猛发展带来了巨大机遇,但也伴随着威胁全球稳定和破坏人类价值观的风险。因此,人工智能治理成为全球关注的焦点,加强国际合作构建人工智能治理图景至关重要。
人工智能风险与机遇并存
随着通用人工智能技术的不断突破,人工智能的应用领域不断拓展,其潜在风险也随之增多。国际社会需要对人工智能发展保持密切的关注和审慎的观察。在制定人工智能治理规则的过程中,需要将技术与社会发展紧密结合,保持灵活性和适应性,并根据实际情况不断调整政策,从而有效地解决问题,推动人工智能技术健康发展,促进数据要素跨境流动。
目前,人工智能技术主要带来以下三类问题:
一、信息安全问题:人工智能模型需要大量数据进行训练,这些数据往往包括用户的个人隐私信息。目前,相关企业和平台尚未达成一致的隐私保护标准,用户在使用人工智能技术时,个人隐私数据泄露风险依然存在。
二、虚假信息问题:尽管技术本身是中立的,但人为因素可能会导致人工智能模型生成虚假信息,例如恶意投放不实消息或片面信息。这些虚假信息可能会对社会造成负面影响,甚至引发社会动荡。
三、数字鸿沟问题:人工智能具有高效的信息检索和整合能力,为人们的工作和生活带来了便利。但与此同时,由于人工智能技术的复杂性和用户自身信息甄别能力的差异,信息获取能力强的用户将更善于利用人工智能技术,而信息获取能力弱的用户则可能被误导或被利用。这种差距的不断扩大将会导致数字鸿沟的加深。
因此,如何在发展与安全之间取得平衡,释放人工智能的“智能红利”,成为国际社会共同面临的挑战。各国应积极落实全球发展倡议、全球安全倡议、全球文明倡议,共同促进全球人工智能健康有序安全发展,让人工智能造福全人类。
国际人工智能治理合作实践
近年来,众多国际组织和机构纷纷发布人工智能治理相关文件,为全球人工智能治理提供正能量,注入新动力:
• 2018年,欧盟委员会发布了《人工智能的伦理准则》,强调人工智能应用必须符合人类价值观和伦理原则,并建议加强人工智能的监管和透明度,促进其可持续发展。
• 2019年,联合国教科文组织发布了《人工智能伦理问题建议书》,积极思考人工智能伦理问题,推动人工智能伦理原则在全球范围内的传播和实施。
• 同年,二十国集团(G20)发布了《G20人工智能原则》,强调人工智能的伦理和社会责任。
• 2023年11月,包括中国在内的28个国家共同达成了《布莱切利宣言》,同意通过国际合作建立人工智能监管机制。该宣言旨在关注强大人工智能模型对人类生存可能造成的威胁,以及人工智能增强有害信息或偏见信息的风险。
欧洲国家在推动国际人工智能治理实践方面一直走在前列:
• 2023年6月,欧盟推出了全球首部人工智能法案,对生成式人工智能企业提出了更高的透明度要求。
• 2023年6月,时任英国首相苏纳克在访美期间与美国总统拜登发表了《大西洋宣言》,同意在人工智能等领域加强合作。
• 2023年10月,法国、德国、意大利三国在意大利罗马举行高级别会议,并发表联合公报称,三国正在制定人工智能战略愿景,并出台人工智能监管法规来管控风险。
• 2024年5月29日,欧盟委员会成立了人工智能办公室,旨在促进人工智能的发展、部署和使用,在降低风险的同时促进社会经济效益和鼓励创新。
中国在人工智能治理方面也积极行动:
• 2021年12月,中国向联合国《特定常规武器公约》第六次审议大会提交了《中国关于规范人工智能军事应用的立场文件》。
• 2022年11月,中国向联合国《特定常规武器公约》缔约国大会提交了《中国关于加强人工智能伦理治理的立场文件》。
• 2023年10月,中国在第三届“一带一路”国际合作高峰论坛上正式发布了《全球人工智能治理倡议》,围绕人工智能发展、安全、治理三个方面阐述人工智能治理的中国方案,为人工智能的开发与安全提出建设性的解决思路和发展蓝本。
构建国际人工智能治理的合作框架
人工智能的发展轨迹关系到全人类的命运,发展和治理人工智能已成为全球各国的共同任务。未来的人工智能发展将在基础研究、产业研发、应用服务等多个领域涌现出一批重要中心和节点,呈现多中心发展的趋势,这些节点之间将高度互联、深度协作,共同推动世界人工智能的发展。
构建国际人工智能治理合作框架,需要采取以下措施:
**一、加强国际合作**:各国应通力合作,保持开放心态进行全球性讨论,避免误解,加速实现人工智能技术及其应用的全球化发展,努力提升人工智能技术的安全性、可靠性、可控性和公平性,增进全人类福祉。全球协作不仅在于对长远议题开展联合研究与风险防范,更在于防止人工智能在技术发展尚存不确定性的情况下发生恶性竞争、误用、滥用甚至恶用。
**二、构建兼顾安全与发展的人工智能监管框架**:通过细化立法领域、拓宽管辖范围、提高法律效力层级等方式,划定人工智能发展的原则底线。坚持以技管技,强调技术性调整手段的重要性,积极发展促进人工智能安全相关技术,以人工智能技术促进人工智能安全开发;坚持法治化推进,人工智能治理的法治化是确保人工智能技术安全有序发展的重要保障,需要建立健全相关法律制度,明确各主体、各环节责任义务,关注权利保护。
**三、建立安全与发展两轮并重的治理观念**:一方面,坚持伦理先行,前瞻研判人工智能伦理风险,注重风险预防,加强源头治理,确保人工智能健康发展;实施全流程监管和分级分类监管机制,针对人工智能技术研发、测试、应用等多个技术环节,明确相应的安全技术标准,辅之以科技伦理审查机制,从各个环节预防和控制技术安全风险。另一方面,针对人工智能应用的不同场景、不同风险程度,设置不同的监管机制,在保障人工智能技术应用安全的同时,最大化预留人工智能产业创新空间。
免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,可联系本站进行审核删除。