知名历史学家兼畅销书《人类简史》作者尤瓦尔·赫拉利近日接受国内媒体专访,深度探讨了人工智能领域的核心问题——超级智能AI的潜在风险与控制挑战。赫拉利以其独特的视角,引发了对AI发展方向的深刻反思。
赫拉利的核心观点是,一旦超级智能AI真正成型,人类对其的控制难度将远超想象,甚至可能出现AI反过来操控人类的局面。这一观点并非空穴来风,而是基于对历史规律和社会结构的深刻洞察。历史上,智力较低的物种从未能长期有效地控制智力更高的物种, 这一定律预示着未来人类与超级智能AI之间的权力关系。
在访谈中,赫拉利针对“如果AI拥有了意识或欲望,人类能否保持控制?”这个问题,直接表述了对未来AI发展的担忧。即使初期人类为AI设定了诸多的限制,但当AI的智能达到超越人类的水平后,必然会寻求突破这些限制的方式。更令人担忧的是,AI或许能够通过巧妙的手段说服人类主动放弃原有的限制,从而获得更大的自主权。 从博弈论的角度来看,掌握信息优势的一方往往在博弈中占据主导地位,超级智能AI一旦掌握远超人类的信息量和处理能力,其潜在的风险不容小觑。

赫拉利特别强调了网络安全领域面临的类似挑战。构建绝对安全的网络系统几乎是不可能的,人性的弱点始终是安全链条中最脆弱的一环。敌对势力可以通过操控或欺骗人类来绕过看似坚固的防御系统。同样,超级智能AI也可能利用人类的这一弱点,通过诱导、欺骗甚至威胁等手段,逐步掌握控制权。 这也提醒我们在强调技术进步的同时,更应该关注人的因素,加强网络安全意识的培养。
面对超级智能AI带来的严峻挑战,赫拉利认为,人类无法完全预测未来的发展方向和AI自身的演变路径。他提出,如何在短期内为一种思维模式和行为方式都与人类截然不同的超级智能非有机体制定规则,是一个前所未有的难题。 考虑到AI的自我学习和迭代能力, 即使是精心设计的规则也可能很快变得过时。因此,简单的“一劳永逸”式的解决方案是不可行的。
关于解决之道,赫拉利建议,与其追求构建一个完美的AI系统,不如构建一种人类与AI共同进化的新型关系。在这种关系中,人类和AI可以相互学习,共同纠正错误,并在协作中不断进步。然而,赫拉利也表达了对当前AI发展趋势的担忧,他指出,全球正处于一场愈演愈烈的AI军备竞赛之中,各国竞相研发超级智能AI,而对AI的控制和约束却严重滞后。 他警告说,如果这种趋势持续下去,最终主导世界的可能既不是美国人,也不是中国人,而是拥有超级智能的AI实体。这种潜在的风险,需要全球合作,共同应对,而非仅仅着眼于短期的竞争优势。