美国现在拥有迄今为止影响最深远的人工智能官方政策。美国总统乔·拜登(Joe Biden)本周签署了一项行政命令,敦促制定新的联邦人工智能安全、安保和可信度标准,并解决人工智能风险和发展的许多其他方面。这个长达近20,000字的广义命令使用“人工智能”一词来指代可以模仿某些人类能力的自动预测、感知或生成软件。白宫的行动是在国际比赛开始前两天采取的 人工智能安全峰会 由英国组织和主办,在此期间,世界各国领导人将讨论快速发展的技术的全球战略。
“这就是我们所希望的,”杜克大学计算机科学家辛西娅·鲁丁(Cynthia Rudin)说,她研究机器学习和 主张 用于人工智能监管。鲁丁并不认为拜登的命令是完美的,但她称其在字面规模和可能的影响方面“非常非常大”:“它涉及大量政府实体,并启动了新的监管和安全委员会,这些委员会将把人工智能作为他们的主要任务,而不仅仅是一项副业。
“白宫在这项行政命令中包含了很多东西,”斯坦福大学(Stanford University)研究人工智能治理的法律和政治学教授丹尼尔·何(Daniel Ho)表示同意。“我确实认为这是一个非常重要的进步。(何鸿燊在国家人工智能咨询委员会任职,但与 《科学美国人》 以个人身份,而不是作为 NAIAC 成员。
人工智能的迅速崛起,特别是 OpenAI 的 ChatGPT 等生成式 AI 系统,在过去一年中引发了人们的强烈关注。对于未来的机器人接管存在一些存在的担忧,但目前也出现了非常具体和明显的风险。
例如,人工智能模型通过视觉深度伪造和即时文本生成明显加剧了虚假信息的问题。机器学习算法具有编码的偏见,可以放大和自动化现有的歧视模式,就像算法 IRS 工具一样 不成比例地针对黑人纳税人 用于审计。新兴研究表明,这些偏见可以长期影响人类行为。通过人工智能系统(包括面部识别软件)收集并用于训练新的生成式人工智能模型的大量数据中,存在对隐私的威胁。人工智能也可能成为主要的国家安全威胁;例如,人工智能模型可用于加速新型化学武器的开发。
“人工智能需要被管理,因为它的力量,”研究道德人工智能的埃默里大学法学院教授Ifeoma Ajunwa说。“人工智能工具,”她补充道,“可以以可能对社会造成灾难性后果的方式使用。
新秩序推动美国走向更全面的人工智能治理。它建立在拜登政府先前的行动之上,例如 自愿承诺 多家大型科技公司在 7 月同意和 人工智能权利法案蓝图 一年前发布。此外,该政策遵循了之前另外两项以人工智能为重点的行政命令:一项是关于联邦政府自己的人工智能使用,另一项旨在促进联邦在人工智能领域的招聘。然而,与以前的行动不同,新签署的命令超越了一般原则和准则;实际上有几个关键部分 需要 科技公司和联邦机构的具体行动。
例如,新命令要求人工智能开发人员在公开发布未来的大型人工智能模型或此类模型的更新版本之前,与美国政府共享安全数据、训练信息和报告。具体而言,该要求适用于包含“数百亿个参数”的模型,这些模型是在广泛的数据上训练的,可能对国家安全、经济、公共卫生或安全构成风险。这一透明度规则可能适用于OpenAI的GPT的下一个版本,GPT是为其聊天机器人ChatGPT提供支持的大型语言模型。拜登政府正在根据《国防生产法》实施这样的要求,这是一项 1950 年的法律,与战时关系最密切——尤其是在 COVID 大流行初期用于增加国内 N95 呼吸器的供应。公司与联邦政府共享其人工智能模型信息的这项授权是科技公司朝着强制透明度迈出的第一步,尽管有限——许多人工智能专家已经这样做了en 最近几个月的倡导。
白宫的政策还要求制定联邦标准和测试,由国土安全部和能源部等机构部署,以更好地确保人工智能不会威胁国家安全。这些标准将部分由美国国家标准与技术研究院制定,该研究所发布了自己的标准 人工智能风险管理框架 在一月份。开发过程将涉及“红队”,即仁慈的黑客与模型的创建者合作,先发制人地解析漏洞。
除了这些任务之外,该行政命令还主要创建工作组和咨询委员会,推动报告倡议,并指示联邦机构在明年发布有关人工智能的指导方针。该命令涵盖 实况报道:国家安全、个人隐私、公平和公民权利、消费者保护、劳工问题、人工智能创新和美国竞争力、人工智能政策的国际合作以及联邦政府内部的人工智能技能和专业知识。在这些总括类别中,有关于评估和促进人工智能在教育、医疗保健和刑事司法中的合乎道德使用的章节。
“这是在许多方向上迈出的第一步,”鲁丁说。她指出,虽然该政策本身并不是一项监管,但它是“监管的一大引子,因为它通过所有专门用于人工智能的工作组和机构的研发收集了大量数据”。她解释说,收集这些信息对下一步至关重要:为了进行监管,你首先需要了解发生了什么。
亚利桑那州立大学(Arizona State University)研究人工智能治理的法学教授加里·马尚(Gary Marchant)表示,通过在联邦政府内部制定人工智能标准,该行政命令可能有助于制定新的人工智能规范,这些规范可能会波及到私营部门。他说,该命令“将产生涓滴效应”,因为政府可能会继续成为人工智能技术的主要购买者。“如果政府作为客户需要它,那么在许多情况下,它将全面实施。
但是,仅仅因为该命令旨在迅速刺激信息收集和政策制定,并为每一项行动设定最后期限,这并不意味着联邦机构将按时完成雄心勃勃的任务清单。“这里需要注意的是,如果你没有人力资本,特别是技术专长,可能很难始终如一地、迅速地实施这些要求,”何说,暗指根据 2023 年的一份报告,只有不到 1% 的人工智能博士学位毕业生进入政府职位 斯坦福报告.Ho 跟踪了之前关于人工智能的行政命令的结果,发现 不到一半 的授权行动得到了可核查的执行。
尽管新政策范围很广,但仍然存在明显的漏洞。鲁丁指出,行政命令没有提到具体保护生物识别数据的隐私,包括面部扫描和语音克隆。Ajunwa说,她希望看到更多的执法要求,以评估和减轻人工智能偏见和歧视性算法。斯坦福大学以人为本的人工智能研究所(Stanford Institute for Human-Centered Artificial Intelligence)隐私和数据政策研究员詹妮弗·金(Jennifer King)表示,在解决政府在国防和情报应用中使用人工智能的问题时,存在差距。
何补充说,即使该命令似乎涵盖了其基础,也可能“政策制定者的期望与技术上可行的内容之间存在相当大的不匹配”。他指出,“水印”就是一个核心例子。新政策要求商务部在未来八个月内确定标记人工智能生成内容的最佳实践,但没有既定的、强大的技术方法来做到这一点。
尽管如此,每位专家 《科学美国人》 与该命令的交谈或通信将其描述为填补政策空白的有意义的一步。欧盟一直在公开致力于制定《欧盟.AI法案》,该法案是 即将成为法律,多年来一直如此。但美国未能取得类似的进展。随着本周的行政命令的出台,人们需要做出一些努力,并即将发生转变——只是不要指望它们明天就会到来。King说,这项政策“目前还不太可能改变人们对人工智能的日常体验。
*编者按ote (11/3/23):这句话是在发布后编辑的,以澄清詹妮弗·金在斯坦福大学以人为中心的人工智能研究所的头衔。
本文由AI快讯网译自:AIMagazine