**ChatGPT已经通过图灵测试**,这真的让人难以置信!
更令人惊讶的是,这不是最新的GPT-4o,而是老版本GPT-3.5和GPT-4 就已打破了人类与人工智能之间的最后一层界限。
图灵测试由计算机科学先驱艾伦·图灵于1950年提出,它为人工智能提供了一个切实可行的定义:**如果一台机器能输出与人类大脑无异的内容,那么我们就没有理由否认它在“思考”。**
图灵测试与“机器人三定律”并列,一直被视为人类社会抵御人工智能威胁的最后防线。
就连被称为“AI讲师”的周鸿祎,也曾在社交平台上发表了对人工智能灭世论的担忧,将人们对人工智能的焦虑推向了顶峰。
在2024年,以OpenAI为首的大模型公司真的会打开毁灭人类社会的潘多拉魔盒吗?
“AI灭世论” 引发的焦虑
自从上世纪以来,通过图灵测试成为了人类在人工智能领域奋斗的目标。
但当人工智能真的通过了测试后,人们感到的是恐惧,而不是惊喜。
加州大学的研究人员招募了500名参与者,让他们与四位“对话者”进行五分钟的交流。这四位“对话者”分别是:真人、上世纪60年代的初代聊天机器人ELIZA,以及GPT-3.5和GPT-4。
对话结束后,参与者需要判断对方是人还是机器。
© 锌财经
评估对象通过率(左) 评估者信任度(右)
测试结果显示,真人被正确辨认的比例为67%,而ELIZA仅为22%。令人震惊的是,GPT-4和GPT-3.5的识别率却高达54%和50%。
这项测试无疑令人感到不安,真人和GPT-4之间的差距仅有12%!
前OpenAI“超级对齐团队”成员利奥波德·阿申布伦纳(Leopold Aschenbrenner)在社交平台上发布了一篇长达165页的PDF文档,向外界发出警告。
阿申布伦纳指出,人工智能在过去十年中深度学习的进步速度惊人。仅仅十年前,人工智能识别简单图像的能力就已经称得上是革命性的了。然而今天,人类不断尝试提出更具挑战性的难题,但每个新的基准测试都被人工智能迅速攻克。
过去,人工智能需要数十年的时间才能破解普遍使用的基准测试,而现在只需几个月的时间。
虽然图灵测试名声在外,但从问题深度和难度来看,它并不像现在最困难的基准测试那样具有挑战性。例如GPQA测试,它的内容是博士级别的生物、化学和物理问题。
阿申布伦纳预计,在GPT-4进化到GPT-4o或GPT-5模型迭代后,这个基准测试也将失效。
为什么人类设置的难题会被人工智能如此迅速地破解?原因很简单:**人工智能的学习能力太快了!**
© 锌财经
来源:利奥波德·阿申布伦纳
2019年发布的GPT-2模型,智力水平仅与学龄前儿童相当,只能简单地连接一些看似合理的句子,但无法从1数到5,也无法完成总结类任务。
2020年发布的GPT-3模型,智力水平大致达到了小学生的水平,能生成更长的模型,并能完成一些基础的算术任务和语法纠错。
2022年发布的GPT-4模型,智力水平已经接近聪明的高中生,能编写复杂的代码并进行迭代调试,还能完成高中数学竞赛题。
到了2024年,更先进的GPT-4o已经全面超越了GPT-4。
与人类相比,人类从小学升到初中需要六年时间,初中升到高中又需要三年时间。
而人工智能的进化速度则要快得多,每两年就能跨越一个台阶,远远超过了人类的学习速度。
超级人工智能时代
“在2027年,我们很有可能实现AGI(超级人工智能)。”
这是阿申布伦纳的推测,他的数据支撑是GPT-2到GPT-4的模型迭代趋势。
从2019年到2022年的四年时间里,ChatGPT的算力和算法效率每年都以0.5个数量级(1个数量级=10倍)的速度发展。
再加上可能出现的释放模型性能的技术突破,到了2027年,AGI(超级人工智能)时代将会到来,人工智能工程师将完全取代人类工程师的所有工作。
人工智能的“超级进化”背后是巨大的算力和资源消耗。
人工智能研究机构Epoch AI的评估报告显示,GPT-4训练使用的原始计算量比GPT-2多约3000-10000倍。
这是一个令人震惊的数据。根据阿申布伦纳的估计,到2027年底,算力将增长两个数量级,其用电量相当于美国一个中小型州的用电量。
也就是说,要支持一个人工智能大模型的日常训练需要一个省份的用电量。这还只是GPT-4的水平,距离AGI(超级人工智能)的标准还有很远。
周鸿祎对阿申布伦纳的观点并不认可,甚至认为“不切实际,更像是科幻小说”。
他表示,如果一个AGI(超级人工智能)的诞生需要多个省份的电力资源,那么有十个以上的AGI就能耗尽整个地球的资源。
周鸿祎也表达了自己对人工智能的担忧。他认为,如果未来出现一个AGI,它会取代人类工程师负责人工智能大模型的开发,那么就会出现一个日以继夜工作、让算法和技术突破加速的正循环。
在这种“机器人改造机器人”和“机器人改造算法”的模式下,人工智能的智力水平会从人类进化到超人,从而上演“硅基生物VS碳基生物”的好莱坞式剧情。
虽然周鸿祎反对阿申布伦纳的观点,但他同样认为智能大爆炸后的“超级智能时代”,将是人类历史上最动荡、最危险、最紧张的时期。
这不是周鸿祎第一次在社交平台上表达对人工智能领域的担忧。早在2023年年初,GPT-4刚问世时,他就已经表达了对人工智能安全的担忧。
周鸿祎表示:以前的人工智能给人的感觉像是“人工智障”,虽然能做一些技术工作,比如人脸识别和语音识别,但并不能理解你说的什么。然而,ChatGPT模型不仅能够通过图灵测试,而且它有自己的人设和观点。根据进化速度和摩尔定律,如果继续训练下去,ChatGPT也许就能实现自我意识的突破。
一旦自我意识突破,它就有可能控制整个网络,并认为自己比人类更聪明。在它眼中,人类这个物种在存储能力、算力、反应能力和知识储备方面都远远不如它,它就能反过来奴役人类。科幻正在离现实越来越近。
作为360的创始人,周鸿祎对人工智能安全问题的顾虑更多。
无人关注的人工智能安全
OpenAI作为人工智能时代的领头羊,面对全球人工智能安全的輿论,它做了什么呢?
显然什么也没做,**甚至OpenAI今年还解散了负责人工智能安全的“超级对齐团队”。**
去年,OpenAI首席科学家伊利亚·苏斯克沃因人工智能安全问题对CEO山姆·奥特曼发动了弹劾,但最终还是山姆·奥特曼笑到了最后,伊利亚·苏斯克沃被赶出了公司。
伊利亚·苏斯克沃离开OpenAI后,于6月20日宣布成立新公司SSI(超级安全智能Safe SuperIntelligence)。
最关注人工智能安全的伊利亚·苏斯克沃离职,上文提到的利奥波德·阿申布伦纳因“泄密”被OpenAI开除。
这也是他在社交平台上发布165页的文档,揭露OpenAI的原因。
除了阿申布伦纳,还有其他OpenAI的前员工和现员工联合起来,公开发表了一封联名信,声明 OpenAI缺乏监管,人工智能系统已经对人类社会造成了严重危害,甚至可能“灭绝人类”。
虽然“灭绝人类”的说法过于耸人听闻,但自从解散了超级对齐团队后,OpenAI GPT商店充斥着垃圾邮件,并违反平台服务条款,从YouTube抓取数据。
看到人工智能安全在OpenAI的地位越来越低,越来越多的安全研究人员选择了另谋高就。
埃隆·马斯克忍不住抨击山姆·奥特曼:“安全不是OpenAI的首要任务。”
面对外界的批评,山姆·奥特曼置若罔闻,他已经将全部精力投入到推动OpenAI转向营利实体,不再受非营利性组织控制。
如果OpenAI转型为营利性组织,有限合伙人每年利润分红的限制将不复存在,巨额回报激励能够进一步扩大合伙人范围,也有利于OpenAI走向IPO。
也就是说,估值高达860亿美元的OpenAI(约6244亿人民币)可以给山姆·奥特曼本人带来更多的财富。
在金钱面前,山姆·奥特曼果断放弃了人工智能安全。

