AI治理:平衡发展与风险,迈向全球共治


**研究背景:** 近期,世界人工智能大会在上海召开,重点讨论了人工智能治理的相关问题。人工智能作为引领未来的战略新兴技术,已成为发展新质生产力和推动科技革命的核心引擎。然而,人工智能的高速发展也带来了复杂效应,包括数据安全、伦理治理、算法歧视、能源环境和数智鸿沟等问题。这些问题不仅影响技术本身的发展,更对社会产生了深远的影响。因此,如何有效治理人工智能成为当前及未来的重大课题。

**一、人工智能发展的不平衡问题**

**1. 人工智能发展不平衡的现状**

人工智能的广泛应用在带来效率提升的同时,也引发了就业结构的变化。传统岗位被人工智能取代,可能导致大规模失业,进而引发社会不稳定。此外,人工智能技术的研发和应用集中在少数科技巨头手中,加剧了经济不平等和垄断问题。正如包括新开发银行行长罗塞夫、联合国工发组织总干事穆勒、联合国秘书长技术特使吉尔等重要人物在本次世界人工智能大会上所说的,当前全球人工智能治理的一大挑战,是要防止资源不平等造成发展差异进一步扩大。国际社会应采取措施,确保发展中国家不在人工智能时代掉队。

**2. 人工智能发展不平衡的原因分析**

引发“人工智能掉队”的因素,包括技术依赖、科技封锁、数据泄露等。总体上,和此前互联网时代的“数字鸿沟”相似,在人工智能时代,发展中国家面临“人工智能鸿沟”的挤压,并且,因为相对的弱势地位,这些国家更容易受到人工智能的负面影响。有专家表示,发达国家一方面努力向发展中国家推广人工智能技术,但并不关心这些国家人民真正需要什么。这种出于利益驱动而形成的不平等关系,是人工智能全球治理最值得关注的问题之一。

**3. 人工智能发展不平衡的解决方法**

人工智能治理迫切需要解决的,就是形成平衡的发展格局,先进国家不可忽视发展中国家人工智能发展的不平等问题。否则,人工智能就会影响联合国可持续发展愿景的实现,进而给世界带来新的不安定因素,成为构建人类命运共同体的障碍。在这个意义上,中国政府在联合国框架内提出《全球人工智能治理倡议》,倡导国际社会更关注发展中国家,倡导权利、机会、规则的平等。并且在今年的世界人工智能大会上,联合国工发组织还宣布将与工业和信息化部、上海市一道,在上海建设一个制造业人工智能卓越中心,面向发展中国家、特别是最不发达国家,用中国的 AI 最佳实践提升他们的 AI 能力。在这一层面上,中国起到了很好的带头示范作用。

长三角国创中心主任刘庆在世界人工智能大会上也表示,培育新质生产力一方面依赖科技创新占据前沿赛道,同时也要兼顾传统产业的转型升级,让“新”与“旧”找到互相赋能的通道、齐头并进,而人工智能可以成为“钥匙”。人工智能领域近年来出现了多个现象级的技术突破,这些突破,正在引领新的商业形态并赋能千行百业。本次会上就展出了诸如“AI+办公”“AI+医疗”“AI+教育”“AI+社交”……人工智能正在加速融入这些传统项目,引领其走向未来。

**二、人工智能发展的安全危机**

**1. 人工智能发展的安全性问题**

当下,人工智能正在不断地引发它的创造者——全球科技界的担忧,或者更准确地说是喜忧参半,因为它有明显造福人类的特性,但也有难以回避的风险和不确定性。有研究表明,在经济发展、社会发展和环境可持续发展三大领域中,人工智能会对 134 个具体目标产生促进作用,但也可能对 59 个具体目标产生阻碍作用。上海人工智能实验室主任、首席科学家周伯文也展示了一张坐标图,显示人工智能发展安全技术滞后于性能提升。目前 99% 的算力用于模型预训练,只有不到 1% 用于价值对齐或更多安全优先的考量。包括马斯克在内的多名科技界知名人士曾发表公开信,呼吁 6 个月内暂停研发人工智能技术。对人工智能的担忧首先来源于它在某些方面超越人类的卓越表现。例如 AlphaZero 从零开始自行学习国际象棋、将棋和围棋,最终在每个领域都击败了人类世界冠军。下棋,只是人工智能小试牛刀的游戏。它在人类引以为豪的思维疆域里,还在不断地挑战边界。

更令人忧虑的是,人们尚无法索解人工智能的智能从何而来。人工智能的核心技术——深度学习常常被称为“黑盒子”,意思是说,虽然它的代码、参数、训练方法是公开透明的,但人们仍然难以追踪、理解和预测它们如何从特定的输入生成特定的输出。不仅是普通人、使用者无法理解,即使那些书写人工智能代码的程序员也无法预测。这种不确定性更加增强了人们对 AI 发展的担忧。

**2. 对于人工智能安全问题的反思**

哲学家海德格尔曾反思过现代技术的危险性。他认为现代技术强调效率,在这种效率观念的促逼下,人类反而被技术所控制和占有,成为了技术的奴隶,收到技术发展的支配。虽然当下加速了发展进程,但是盲目的发展最终会导致一系列的社会危机,这是人类不可忽视的问题。

例如,近年来,一些不法分子利用 AI 深度伪造新工具实施电信诈骗、散布虚假视频、激化社会矛盾,给安全领域带来了诸多风险。AI 深度伪造是一种利用人工智能技术合成、修改或替换图像、视频和音频内容的技术,可以将一个人的面部表情、言辞和动作应用到其他人的图像或视频上,使生成的内容看似原始内容。这项技术让假新闻和虚假信息更具迷惑性,严重威胁公众的信任和社会稳定。

此类安全产生的主要原因在于,技术发展速度过快而法律法规和伦理规范未能及时跟进。首先是法律问题,现有的法律框架往往难以适应 AI 的快速发展,导致监管滞后,例如,AI 自动驾驶汽车的责任认定问题,目前尚无明确的法律规定。当 AI 系统出现故障导致事故时,如何界定制造商、开发者和用户的责任,成为法律界亟待解决的难题。其次是伦理问题,AI 的决策机制和数据处理方式存在不透明性,可能导致偏见和歧视的扩散,例如,面部识别技术在执法中的应用可能带来隐私侵害和种族偏见的问题。经济基础决定上层建筑,上层建筑反作用于经济基础,当上层建筑为适合生产力发展的经济基础服务时,它就成为推动社会发展的进步力量;反之则成为阻碍社会发展的力量。当前的法律法规和伦理规范已经落后于 AI 技术发展水平,亟需改良进步。

**3. 解决人工智能安全问题的方法**

首先,政府应当与各个社会组织共同制定和实施关于 AI 技术发展相关的法律法规体系,并加强对 AI 技术的监管力度,建立起有效的监管制度和执法体系,明确 AI 技术的研发、应用、监督等方面的法律责任与义务,以确保 AI 的发展和应用可以在合法的框架下进行。同时,应当建立起明确的问责机制,确保 AI 系统在出现问题时可以追溯和纠正。

其次,在完善法律法规的基础上,应当制定科学合理的 AI 伦理规范体系,使得 AI 技术符合社会的伦理要求和行为准则。不仅需要让伦理规范覆盖 AI 技术的多个方面,如数据隐私、算法公正、人机关系等,还应当对 AI 技术的从业人员进行伦理教育,提高相关从业人员的伦理意识和责任感。此外,也要鼓励社会各界积极参与到对 AI 的监管中来,共同推动 AI 技术的伦理发展。

最后,推动技术层面创新。问题的解决也往往需要有更高水平的发展,因此需要鼓励和支持科研机构与科技企业,加大对 AI 技术研发的投资,推动 AI 技术的不断创新与突破。技术创新可以更好地解决 AI 技术发展过程中问题与矛盾,由此提高 AI 技术的安全性、可靠性和效率。在此基础上,还应当积极探索 AI 技术在各个领域内的适用性,扩大 AI 技术的使用范围,尤其是要积极推动 AI 技术与实体经济的深度融合发展,让 AI 技术能更好地促进实体经济发展。

**三、人工智能治理的全球性挑战**

当前,人工智能技术的快速发展,为人类社会发展带来了诸多红利,同时也出现了不少风险挑战。如何在全球范围内通过协同共治,实现人工智能发展与安全并重,成为各方亟需对话与合作的重大课题。

**1. 人工智能全球治理的必要性**

AI 技术的快速发展和广泛应用已经超越了国界和地域的限制,成为全球性现象。国内外有多家科技公司都已经都推出了自己的大数据模型,如 OpenAI 的 GPT-4o、字节跳动的豆包以及智谱的 GLM。AI 技术发展带来的风险也早已成为全球性挑战。因此,AI 治理不能各自为营,也需要从全球视角出发,加强国际合作与交流。各个国家和科技公司之间共同制定国际标准和规范,可以有效应对 AI 技术带来的全球性挑战,如跨国数据流动、网络安全、人工智能武器等。同时,全球性的 AI 治理还可以促进各国之间的互利共赢和共同发展,推动构建人类命运共同体。

**2. 人工智能全球治理的困难**

首先,不同国家在政治制度、文化背景和社会价值观上存在显著差异,这些差异导致各国对 AI 治理的优先事项和方法存在分歧。

其次,AI 技术的发展涉及巨大的经济利益,各国之间在技术研发、市场份额和产业布局方面存在激烈竞争。一些国家和科技公司在 AI 领域占据领先地位,不愿意在国际治理框架中受到限制,担心影响自身的竞争优势。AI 技术的应用涉及广泛的商业利益,各国可能会为了保护本国企业的市场份额而抵制统一的国际规范。不同国家在产业政策上也会有不同的侧重点,一些国家可能会更倾向于保护本国的 AI 产业,制定有利于自身发展的政策,而不是参与全球性的治理框架。

再次,AI 技术本身的复杂性和快速发展使得全球治理更加困难。 AI 技术涉及深度学习、自然语言处理、计算机视觉等多个领域,每个领域都有其独特的技术挑战和应用场景,治理的复杂性大大增加。并且 AI 技术更新速度快,传统的立法和监管手段难以跟上技术进步的步伐。即使制定了相关政策和法规,也可能很快变得过时,需要不断更新和调整。

然后,AI 技术的发展依赖于大量数据的收集和共享,但数据隐私和安全问题却成为全球治理的重要难题。许多国家对本国数据的控制权有很强的保护意识,不愿意轻易共享数据。而且各国对数据隐私保护的标准和要求不同,一些国家可能对数据的跨境流动设置严格的限制。

最后少数科技巨头公司在 AI 技术和市场上占据主导地位,导致全球治理面临技术垄断和不平等问题。大型科技公司在 AI 技术研发和应用方面占据主导地位,拥有巨大的经济和政治影响力,可能会影响政策的制定和执行。AI 技术的发展还可能加剧全球范围内的经济不平等,发展中国家在技术和资源方面处于劣势,难以在全球治理中发挥有效作用。

**3. 人工智能全球治理的方法探究**

实现 AI 全球治理需要各国共同努力,目前已有多个国际组织和倡议在推动 AI 治理方面做出了重要努力和贡献。例如联合国教科文组织在 2021 年通过了《人工智能伦理问题建议书》,这是首个全球性的 AI 伦理框架,旨在确保 AI 技术的发展和应用符合伦理标准。在此基础上,各国政府、国际组织、企业和学术机构应加强对话与合作,分享 AI 技术的研究成果和治理经验。通过举办国际会议和论坛,促进不同国家和地区之间的交流与合作,共同制定全球性的 AI 治理标准和规范,其中包括伦理标准、法律框架与技术标准。在制定 AI 治理政策和法规时,广泛听取公众意见,确保政策制定过程的透明度和公众参与度。通过公开咨询、听证会和调查问卷等形式,鼓励公众对 AI 治理问题发表意见和建议。

对于 AI 技术本身,则应当继续加大对 AI 研究的投入,开发更为先进的加密技术和防火墙,防范黑客攻击和数据泄露。同时,推动 AI 技术的安全测试和评估,确保其在各种环境下的稳定性和可靠性。与此同时,各国政府也应加强对公众的数字教育,提升其对 AI 技术的理解和应用能力。通过宣传和培训,提高公众对 AI 技术的认知,确保更多人能够享受 AI 带来的便利和机遇。在国际组织的引导下,帮助发展中国家提升 AI 技术的研发和应用能力,缩小全球范围内的数字鸿沟。提供专项资金和技术支持,促进 AI 技术在发展中国家的普及应用。

实现 AI 全球治理需要各国共同努力,共同应对 AI 技术带来的全球性挑战。只有通过全球共治,才能在平衡发展与风险的基础上,实现 AI 技术的可持续发展,为人类社会带来更多福祉。

    免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,可联系本站进行审核删除。
    (0)
    AI快讯网编辑-青青AI快讯网编辑-青青
    上一篇 2024年 7月 19日 上午9:37
    下一篇 2024年 7月 19日 上午9:57

    相关推荐

    发表回复

    您的邮箱地址不会被公开。 必填项已用 * 标注

    欢迎来到AI快讯网,开启AI资讯新时代!