“作为计算机科学教授,早在1984年我就开始了一个关于人工智能的项目,可想而知AI的发展经历了多么漫长的讨论。” 英国南安普敦大学教授温迪·霍尔(Wendy Hall)近日在第十二届世界和平论坛上提及此事,台上的其他专家纷纷笑称,那时候他们都还是孩子。
霍尔上大学的时候几乎接触不到电脑,在数学专业读到博士毕业后,她对新出现的微型计算机产生了浓厚的兴趣,毅然转而攻读计算机科学硕士,并在毕业时编写了一个智能教学程序。她7月7日在北京接受澎湃新闻(www.thepaper.cn)专访时表示,“那时我只是想展望一下未来,看看我们如何利用电脑实现人工智能。” 那个时代,全球范围内的人工智能正从理论研究走向实际应用。
英国南安普敦大学教授温迪·霍尔(Wendy Hall)接受澎湃新闻专访。
自那次展望未来以来,霍尔带领的团队于1988年开发了微观世界超媒体系统(Microcosm Hypermedia System),将文档之间的链接存储在一个单独的数据库中,旨在构建一个更互联的网络,而那时万维网尚未出现。
“此后,我的职业生涯一直与人工智能密不可分。” 霍尔说道。
上世纪80年代末,在南安普敦大学教授计算机科学三年后,霍尔发现了一个奇怪现象:计算机科学专业的学生中没有女性,英国其他高校也基本如此。她回忆,那个年代计算机被包装成男孩子的玩具,似乎与女性无关。“就这样,一代女性对计算机失去了兴趣,后来这个学科的性别比例也没有完全恢复平衡,做人工智能的女性自然就更少了。”
令她欣慰的是,联合国层面的AI咨询系统意识到了多样性问题。2023年,霍尔入选联合国人工智能高级别咨询机构(High-level Advisory Body on Artificial Intelligence),39名专家中包含20名女性和19名男性,涵盖33个国家。她强调,如果开发人工智能的团队缺乏多样性,就很有可能存在偏见和不公,因为这仅仅是从单一角度进行思考。
霍尔曾在2017年受英国政府之邀,为国家撰写AI产业发展路线图,两周前还与时任英国首相苏纳克共同探讨了人工智能安全问题。近一年来,她和联合国人工智能咨询机构的团队成员共同撰写了《以人为本的人工智能治理》报告,最终版本将于今夏发布。对于人工智能的治理与监管,这位教授从英国和联合国机构的视角阐述了自己的见解。
人工智能领域的女性角色
澎湃新闻:您从1984年就开始涉足人工智能领域,至今已有40年,这期间人工智能的技术和商业应用已经发生了翻天覆地的变化,您一直坚守在这个学科进行研究工作的动力是什么?
温迪·霍尔:我曾经是一名数学家,博士毕业时恰逢微型计算机开始出现。当时我想要在研究型大学工作,但因为太年轻,找不到合适的岗位,也发现自己的能力无法与微型计算机的记忆力和算力相匹敌。当我了解到除了通过程序代码之外,还可以与计算机进行交互,在计算机上放置图形和多媒体时,我对如何将其应用于教育产生了浓厚的兴趣,之后对超媒体(hypermedia)也变得非常感兴趣,于是走上了研究的道路。
二三十年前,人们觉得计算机科学家杰弗里·辛顿(Jeffery Hinton)疯了,因为他不断提出新的想法,但这通常正是研究的方式,也是我喜欢做研究的原因。我乐于被告知自己所做的研究永远无法实现,然后时隔多年,我可以对人们说,“看,我30年前所做的研究现在已经实现了。” 我对此感到非常自豪。比如在1990年代,我就谈论过可穿戴计算机设备,并有视频记录,当时人们问我为什么需要可穿戴计算机,而现在智能穿戴已经普及。
我不想为科技巨头工作,因为产业界是利益驱动的,必须专注于让股价上涨和销售产品。在上世纪90年代,我确实创办了一些初创公司,它们取得了不同程度的成功,但我并没有因此变得富有。我在大学可以自由地思考,可以做感兴趣的研究,这是一种很棒的体验。
澎湃新闻:在人工智能领域,像您这样的女性研究者并不多见,如何提高女性的参与度?
温迪·霍尔:我认为人工智能不应该被视为计算机科学的一个子集,它比计算机科学要大得多。当我们讨论它时,不仅仅是在谈论编程,还在谈论它的伦理、治理、政策,我们需要立法者、人文学科研究者、商业人士、哲学家和心理学家。所以,性别、年龄、种族方面的多样性非常重要,因为人工智能是为全世界打造的。
我非常担心人工智能通过计算机科学来筛选人才,而研究计算机科学的女性非常少。所以相应地,做人工智能的女性就更少了。从进入人工智能领域至今40年,我仍然是该领域中少数女性之一。
澎湃新闻:人工智能领域中女性研究者较少是否会导致多样性的缺失,进而引发其他问题?
温迪·霍尔:我非常强烈地主张多样性,如果只是一元文化,那么生产的任何东西,无论是研究还是产品,都更有可能存在偏见和不公,因为这仅仅是从一种方式进行思考。从道德层面来看,如果开发人工智能的团队缺乏多样性,那就是一个问题。
当然,联合国人工智能高级别咨询机构的团队是极具多样性的,不仅男女比例对半分,在年龄、种族、商业背景方面也非常多元化。所以这是一个很棒的团队,是多样性的一个典范。
AI规则制定应由谁主导
澎湃新闻:联合国人工智能高级别咨询机构的39名专家分布在33个不同国家,每个大洲都有代表。当不同国家、学科和背景的专家一起制定报告时,会有怎样的分歧?
温迪·霍尔:由于小组具有多样性,来自各个地区的专家都深入参与其中,所有专家都敢于表达自己的想法,因此我们并不会在每件事上都意见一致。但这项工作能够顺利进行,很大程度上得益于联合国的领导,特别是联合国秘书长技术特使阿曼迪普•吉尔,他是一位很有影响力的人物,但他并不会居高临下,通常能够让每个人以自己的方式行事,他鼓励人们发言,让每个人真正参与到讨论中。通常情况下,每个人都会发声,这就是全面的多样性,这让我深有感触。
我特别喜欢听团队中的法律从业者以不同的方式思考世界,非常合乎逻辑。我们彼此了解,已经进行了多次线上和线下会议,包括一些深入的探讨,包括开源、人工智能的和平,以及儿童和性别等各种议题。
澎湃新闻:联合国人工智能高级别咨询机构去年12月发布了《以人为本的人工智能治理》中期报告,呼吁将国际规范与人工智能的开发和推广方式更紧密地结合起来。最终报告尚未发布,现在的工作进展如何?
温迪·霍尔:最终报告已经基本完成,并提交给了联合国秘书长,还有一些反馈意见,可能后期会更新和迭代。最重要的是,联合国领导层是否乐于接受我们所提出的内容,我们必须以他们能够接受的方式坚定地说出想说的话。这份报告将作为今年9月未来峰会(Summit of the Future)上将讨论的全球数字契约的一部分。我们非常希望报告中的大部分内容被纳入契约。
对于报告的细节,我们为联合国和人工智能机构留有探讨的空间和其他可能性。我们访问了世界卫生组织、知识产权组织、人权组织、国际电信联盟(ITU),他们都在推进有关人工智能的工作,但往往只能看到自己关注的那一部分。我们正试图跨越这个障碍,构建一个网络是一种解决方案。
澎湃新闻:小到科研机构、科技公司,大到国家政府和联合国,都在不同层面讨论和制定人工智能相关的规则来尽可能地确保安全,那么究竟哪一方享有规则制定的主导权?
温迪·霍尔:国家政府在规则制定方面有很大的影响力,比如英国去年成立了人工智能安全研究所,旨在提高对人工智能安全的认识。但我并不赞同这种做法,因为它过多地带有政府部门的色彩,缺乏学术界的参与。而联合国是世界上唯一真正具有普遍性的全球组织,可以处理各种问题,尽管它可能是不完美的。但是我们可以利用这样一个平台来构建一个AI治理的网络。
澎湃新闻:英国去年主办了一次国际人工智能安全峰会,时任首相苏纳克说:“目前唯一测试人工智能模型安全性的是开发它的公司。” 他认为这是远远不够的。那么如何让更多人参与到人工智能安全性的检测和提升当中?
当地时间2023年11月2日,英国伦敦,人工智能安全峰会期间,英国时任首相苏纳克与特斯拉CEO马斯克出席一场对话活动。视觉中国 图
温迪·霍尔:谈到去年在英国举办的人工智能峰会,坦率地说,让我恼火的是有很多国家没有被邀请,受邀的标准并不清楚,而且很多学者完全被排除在外。
关于人工智能的安全性,在很多行业,一般是行业开发测试工具对产品进行检测,然后提交报告给政府接受监管,这也是目前人工智能遵循的一套规则。在英国,人工智能安全研究所都不一定能够访问那些科技公司的数据,更不用说其他机构和个人。我认为公司管理安全性和政府监管的平衡需要更进一步优化。
两周前,我见了苏纳克首相,当时和他谈论了人工智能,我问他试图通过AI安全研究所达成什么目标。他充满热情,希望英国能成为人工智能安全领域的领导者,但实际上这是一个全球性问题。而且我认为很多研究应该在大学里进行,由商业公司来支付费用,然后由政府来监管技术的开发。而且政府需要派人到人工智能的最前沿,以便了解正在发生什么并进行监管。
别让ChatGPT做简单数学题
澎湃新闻:您既参与了2017年英国人工智能独立报告的制定,也参与了联合国人工智能高级别咨询机构的AI治理工作,如何看待欧盟最新发布的人工智能法案?一些科技公司指责这样的法案会打击创新,您怎么看?
温迪·霍尔:我们必须在创新和监管之间找到正确的平衡。我认为英国的手段太软了,当然也对创新比较友好。实际上不管是欧盟还是英国制定的监管方案,确保安全的目标是一致的,只是实现的手段不同。
我们必须要有强力的法规,如果只是科技公司自我监管是不够的。就像烟草行业,人们都知道吸烟的害处,但如果不制定相关法规,烟草公司为了盈利会以自己的方式制造和销售香烟。不同国家的法律会有所不同,但我们需要在联合国层面上形成一定的原则,各国可以在这样的原则基础上制定自己的法规。
澎湃新闻:您在社交平台上分享了一份有关深度伪造(Deepfake)的联名书,呼吁制定新的法律法规,保护人们免受深度造假的危害。现在深度伪造带来的哪些危害值得重点关注?应该从哪些方面努力去应对这种危害?
温迪·霍尔:可以看到今年有很多国家举行选举,我们很担心深度伪造会改变人们在选举中的投票,现在通过任何法律或技术都很难解决这个问题。比如有专家提到可以运用水印来防止伪造,实际上水印也很容易破解。
我认为每个人都应该意识到人工智能能做什么以及它如何被滥用来制造虚假信息和深度伪造。我们不能期望政府做所有事情,而且也不希望政府和科技公司成为审查者。真正困难的是,谁来判定某件事或某个信息的真实性,而且这也涉及到言论自由和隐私的问题。因此还是要回归到人们的意识问题,需要每个人都认识到人工智能应该如何被正当使用。
澎湃新闻:您在演讲中提到生成式人工智能工具ChatGPT改变了很多,在开发和使用生成式人工智能的进程中有哪些需要关注的风险或盲区?
温迪·霍尔:我想强调人工智能的耗能问题,它的庞大电力需求是一个值得关注的问题。人们很多时候不正当地使用生成式人工智能,对ChatGPT提出极其简单的请求,比如输入简单的算术题,这太疯狂了。我们需要负责任地使用人工智能,一些在搜索引擎中可以查找的信息不需要用资源密集型的生成式人工智能来完成。当公司销售产品时,不应该说现在可以用这个来做所有事情,而应该思考如何确保以一种负责任的方式使用它。
当然,对于人工智能的发展我还是比较乐观的。重要的是要看怎么样和人工智能进行合作,比如AI在粮食安全、气候变化、能源、医疗卫生方面已经有很多突破,这是很棒的进展。我们要支持人工智能向好的方向发展,要建立一个机制去确保安全,这是一个漫长的旅程。我们不应该反对人工智能,而是要和人工智能进行协作,因为人工智能可以帮助人类有一个更好的未来。
免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,可联系本站进行审核删除。