AI统治世界,需要分几步走?

**ChatGPT已经通过图灵测试**,这真的让人难以置信!

更令人惊讶的是,这不是最新的GPT-4o,而是老版本GPT-3.5和GPT-4 就已打破了人类与人工智能之间的最后一层界限。

图灵测试由计算机科学先驱艾伦·图灵于1950年提出,它为人工智能提供了一个切实可行的定义:**如果一台机器能输出与人类大脑无异的内容,那么我们就没有理由否认它在“思考”。**

图灵测试与“机器人三定律”并列,一直被视为人类社会抵御人工智能威胁的最后防线。

就连被称为“AI讲师”的周鸿祎,也曾在社交平台上发表了对人工智能灭世论的担忧,将人们对人工智能的焦虑推向了顶峰。

在2024年,以OpenAI为首的大模型公司真的会打开毁灭人类社会的潘多拉魔盒吗?

“AI灭世论” 引发的焦虑

自从上世纪以来,通过图灵测试成为了人类在人工智能领域奋斗的目标。

但当人工智能真的通过了测试后,人们感到的是恐惧,而不是惊喜。

加州大学的研究人员招募了500名参与者,让他们与四位“对话者”进行五分钟的交流。这四位“对话者”分别是:真人、上世纪60年代的初代聊天机器人ELIZA,以及GPT-3.5和GPT-4。

对话结束后,参与者需要判断对方是人还是机器。

AI统治世界,需要分几步走?
© 锌财经

评估对象通过率(左) 评估者信任度(右)

测试结果显示,真人被正确辨认的比例为67%,而ELIZA仅为22%。令人震惊的是,GPT-4和GPT-3.5的识别率却高达54%和50%。

这项测试无疑令人感到不安,真人和GPT-4之间的差距仅有12%!

前OpenAI“超级对齐团队”成员利奥波德·阿申布伦纳(Leopold Aschenbrenner)在社交平台上发布了一篇长达165页的PDF文档,向外界发出警告。

阿申布伦纳指出,人工智能在过去十年中深度学习的进步速度惊人。仅仅十年前,人工智能识别简单图像的能力就已经称得上是革命性的了。然而今天,人类不断尝试提出更具挑战性的难题,但每个新的基准测试都被人工智能迅速攻克。

过去,人工智能需要数十年的时间才能破解普遍使用的基准测试,而现在只需几个月的时间。

虽然图灵测试名声在外,但从问题深度和难度来看,它并不像现在最困难的基准测试那样具有挑战性。例如GPQA测试,它的内容是博士级别的生物、化学和物理问题。

阿申布伦纳预计,在GPT-4进化到GPT-4o或GPT-5模型迭代后,这个基准测试也将失效。

为什么人类设置的难题会被人工智能如此迅速地破解?原因很简单:**人工智能的学习能力太快了!**

https://images.tmtpost.com/uploads/images/2024/06/25/56f1bb2ad71dcd652c0b23cc461bb87d_1719284704.webp
© 锌财经

来源:利奥波德·阿申布伦纳

2019年发布的GPT-2模型,智力水平仅与学龄前儿童相当,只能简单地连接一些看似合理的句子,但无法从1数到5,也无法完成总结类任务。

2020年发布的GPT-3模型,智力水平大致达到了小学生的水平,能生成更长的模型,并能完成一些基础的算术任务和语法纠错。

2022年发布的GPT-4模型,智力水平已经接近聪明的高中生,能编写复杂的代码并进行迭代调试,还能完成高中数学竞赛题。

到了2024年,更先进的GPT-4o已经全面超越了GPT-4。

与人类相比,人类从小学升到初中需要六年时间,初中升到高中又需要三年时间。

而人工智能的进化速度则要快得多,每两年就能跨越一个台阶,远远超过了人类的学习速度。

超级人工智能时代

“在2027年,我们很有可能实现AGI(超级人工智能)。”

这是阿申布伦纳的推测,他的数据支撑是GPT-2到GPT-4的模型迭代趋势。

从2019年到2022年的四年时间里,ChatGPT的算力和算法效率每年都以0.5个数量级(1个数量级=10倍)的速度发展。

再加上可能出现的释放模型性能的技术突破,到了2027年,AGI(超级人工智能)时代将会到来,人工智能工程师将完全取代人类工程师的所有工作。

人工智能的“超级进化”背后是巨大的算力和资源消耗。

人工智能研究机构Epoch AI的评估报告显示,GPT-4训练使用的原始计算量比GPT-2多约3000-10000倍。

这是一个令人震惊的数据。根据阿申布伦纳的估计,到2027年底,算力将增长两个数量级,其用电量相当于美国一个中小型州的用电量。

也就是说,要支持一个人工智能大模型的日常训练需要一个省份的用电量。这还只是GPT-4的水平,距离AGI(超级人工智能)的标准还有很远。

周鸿祎对阿申布伦纳的观点并不认可,甚至认为“不切实际,更像是科幻小说”。

他表示,如果一个AGI(超级人工智能)的诞生需要多个省份的电力资源,那么有十个以上的AGI就能耗尽整个地球的资源。

周鸿祎也表达了自己对人工智能的担忧。他认为,如果未来出现一个AGI,它会取代人类工程师负责人工智能大模型的开发,那么就会出现一个日以继夜工作、让算法和技术突破加速的正循环。

在这种“机器人改造机器人”和“机器人改造算法”的模式下,人工智能的智力水平会从人类进化到超人,从而上演“硅基生物VS碳基生物”的好莱坞式剧情。

虽然周鸿祎反对阿申布伦纳的观点,但他同样认为智能大爆炸后的“超级智能时代”,将是人类历史上最动荡、最危险、最紧张的时期。

这不是周鸿祎第一次在社交平台上表达对人工智能领域的担忧。早在2023年年初,GPT-4刚问世时,他就已经表达了对人工智能安全的担忧。

周鸿祎表示:以前的人工智能给人的感觉像是“人工智障”,虽然能做一些技术工作,比如人脸识别和语音识别,但并不能理解你说的什么。然而,ChatGPT模型不仅能够通过图灵测试,而且它有自己的人设和观点。根据进化速度和摩尔定律,如果继续训练下去,ChatGPT也许就能实现自我意识的突破。

一旦自我意识突破,它就有可能控制整个网络,并认为自己比人类更聪明。在它眼中,人类这个物种在存储能力、算力、反应能力和知识储备方面都远远不如它,它就能反过来奴役人类。科幻正在离现实越来越近。

作为360的创始人,周鸿祎对人工智能安全问题的顾虑更多。

无人关注的人工智能安全

OpenAI作为人工智能时代的领头羊,面对全球人工智能安全的輿论,它做了什么呢?

显然什么也没做,**甚至OpenAI今年还解散了负责人工智能安全的“超级对齐团队”。**

去年,OpenAI首席科学家伊利亚·苏斯克沃因人工智能安全问题对CEO山姆·奥特曼发动了弹劾,但最终还是山姆·奥特曼笑到了最后,伊利亚·苏斯克沃被赶出了公司。

伊利亚·苏斯克沃离开OpenAI后,于6月20日宣布成立新公司SSI(超级安全智能Safe SuperIntelligence)。

最关注人工智能安全的伊利亚·苏斯克沃离职,上文提到的利奥波德·阿申布伦纳因“泄密”被OpenAI开除。

这也是他在社交平台上发布165页的文档,揭露OpenAI的原因。

除了阿申布伦纳,还有其他OpenAI的前员工和现员工联合起来,公开发表了一封联名信,声明 OpenAI缺乏监管,人工智能系统已经对人类社会造成了严重危害,甚至可能“灭绝人类”。

虽然“灭绝人类”的说法过于耸人听闻,但自从解散了超级对齐团队后,OpenAI GPT商店充斥着垃圾邮件,并违反平台服务条款,从YouTube抓取数据。

看到人工智能安全在OpenAI的地位越来越低,越来越多的安全研究人员选择了另谋高就。

埃隆·马斯克忍不住抨击山姆·奥特曼:“安全不是OpenAI的首要任务。”

面对外界的批评,山姆·奥特曼置若罔闻,他已经将全部精力投入到推动OpenAI转向营利实体,不再受非营利性组织控制。

如果OpenAI转型为营利性组织,有限合伙人每年利润分红的限制将不复存在,巨额回报激励能够进一步扩大合伙人范围,也有利于OpenAI走向IPO。

也就是说,估值高达860亿美元的OpenAI(约6244亿人民币)可以给山姆·奥特曼本人带来更多的财富。

在金钱面前,山姆·奥特曼果断放弃了人工智能安全。

    免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,可联系本站进行审核删除。
    (0)
    AI快讯网编辑-青青AI快讯网编辑-青青
    上一篇 2024年 6月 26日 上午11:37
    下一篇 2024年 6月 26日 上午11:58

    相关推荐

    发表回复

    您的邮箱地址不会被公开。 必填项已用 * 标注

    欢迎来到AI快讯网,开启AI资讯新时代!