包括副总统卡玛拉·哈里斯(Kamala Harris)和亿万富翁埃隆·马斯克(Elon Musk)在内的全球约150名政府和行业领袖本周来到英国参加英国人工智能安全峰会。这次会议是关于如何监管人工智能的全球对话的焦点。但对于一些专家来说,这也凸显了人工智能公司在这场对话中发挥的巨大作用——以牺牲许多受到影响但缺乏人工智能成功经济利益的人为代价。
11月1日,来自28个国家和欧盟的代表签署了一项名为 《布莱切利宣言》 (以峰会的地点,英国布莱切利的布莱切利公园命名),他们同意继续考虑如何安全地部署人工智能。但对于十分之一的论坛参与者(其中许多人代表民间社会组织)来说,在英国进行的对话还不够好。
在《布莱切利宣言》之后,与会的 11 个组织发布了 公开信 他说,峰会通过关注未来的潜在风险,对世界造成了伤害,例如恐怖分子或网络犯罪分子选择生成式人工智能,或者更科幻的想法,即人工智能可以变得有知觉,摆脱人类控制并奴役我们所有人。这封信说,峰会忽视了人工智能已经存在的风险,包括歧视、经济流离失所、剥削和其他类型的偏见。
其中一些危害的出现是因为生成式人工智能模型是根据来自互联网的数据进行训练的,这些数据包含偏见。因此,这种模型产生的结果有利于某些群体而不利于其他群体。例如,如果你让一个生成图像的人工智能来描绘CEO或商业领袖,它将向用户展示中年白人男性的照片。与此同时,CDT自己的研究强调了如何 非英语人士处于不利地位 通过使用生成式人工智能,因为大多数模型的训练数据都是英文的。
然而,对于一些强大的人工智能公司来说,更遥远的未来风险场景显然是当务之急, 包括 OpenAI,开发了 ChatGPT。许多签署公开信的人认为,人工智能行业在塑造布莱切利公园峰会等重大相关活动方面具有巨大的影响力。例如,峰会的官方日程用“前沿人工智能”一词描述了当前的大量生成式人工智能工具,这与人工智能行业在命名其自我监管监管机构时使用的术语相呼应。 前沿模型论坛.
通过对此类事件施加影响,强大的公司在制定官方人工智能政策方面也发挥了不成比例的作用——这种情况被称为“监管捕获”。因此,这些政策往往优先考虑公司利益。“为了有一个民主的过程,这个过程应该是独立的,而不是被公司抓住的机会,”斯坦福大学网络政策中心国际政策主任Marietje Schaake说。
例如,大多数私营公司并不优先考虑开源人工智能(尽管也有例外,例如 Meta 的 LLaMA 模型)。在美国,在英国峰会开始前两天,美国总统乔·拜登(Joe Biden)发布了一项行政命令,其中包括一些学术界人士认为以牺牲开源人工智能开发人员为代价有利于私营部门参与者的条款。“这可能会对开源产生巨大影响 [AI]、开放科学和人工智能的民主化,“佐治亚理工学院计算机副教授马克·里德尔(Mark Riedl)说。10 月 31 日,非营利性 Mozilla 基金会 单独发表了一封公开信 这强调了人工智能模型的开放性和安全性的必要性。其签署人包括纽约大学人工智能教授、Meta 首席人工智能科学家 Yann LeCun。
一些专家只是要求监管机构将对话从人工智能公司的主要担忧——未来通用人工智能(AGI)手中的生存风险——扩展到更广泛的潜在危害。对于其他人来说,即使是这个更广泛的范围也不够好。
“虽然我完全理解AGI可能会分散注意力,以及对企业共同选择的担忧,但我开始担心,即使试图关注风险也会以牺牲人为代价对企业过于有帮助,”人工智能公司Hugging Face的首席伦理科学家玛格丽特·米切尔(Margaret Mitchell)说。(该公司派代表参加了布莱切利公园峰会,但米切尔本人在美国参加了同时举行的论坛由当时的纽约州参议员查克·舒默(Chuck Schumer)撰写。
“人工智能监管应该关注人,而不是技术,”米切尔说。“这意味着 [having] 较少关注’这项技术可能做不好什么,我们如何对其进行分类?’,而更多地关注’我们应该如何保护人们?’”米切尔对基于风险的方法持谨慎态度,部分原因是许多公司非常愿意在本周的英国峰会和其他类似活动中签署这种方法。“这立即为我敲响了危险信号,”她说,并补充说她在舒默的论坛上也提出了类似的观点。
米切尔主张采取基于权利的人工智能监管方法,而不是基于风险的方法。布鲁金斯学会(Brookings Institution)研究员奇纳萨·T·奥科洛(Chinasa T. Okolo)也参加了英国的活动。“峰会的主要对话围绕着’前沿模型’对社会构成的风险,”她说,“但忽略了人工智能对数据标注者造成的伤害,这些工人可以说是人工智能发展中最重要的。
特别关注人权,将对话置于政治家和监管机构可能感到更舒服的领域。米切尔认为,这将有助于立法者自信地制定立法,以保护更多面临人工智能伤害风险的人。它还可以为那些热衷于保护其现有职位及其数十亿美元投资的科技公司提供妥协。“通过政府关注权利和目标,你可以将自上而下的监管与自下而上的监管结合起来,前者是政府最有资格的,”她说,“后者是开发商最有资格的。
本文由AI快讯网译自:AIMagazine