近日,凤凰网财经《封面》与历史学家、哲学家,《智人之上》、“人类简史”三部曲等书作者尤瓦尔·赫拉利展开了一场深度对话。谈及人工智能是否比核武器更危险的问题,尤瓦尔·赫拉利认为,核武器的风险从一开始就清晰明了。只有核战争这种情况极度危险,而且每个人都能轻易想象。而人工智能带来的潜在危险也同样易于理解,例如:假如某个独裁者利用人工智能控制国家的核武器,如果人工智能犯下致命错误会发生什么?或者,如果恐怖分子利用人工智能制造新型病毒,引发一场全球大流行或瘟疫,后果将不堪设想。
然而,人工智能也存在许多难以想象和预测的危险场景。这种威胁源自人工智能的本质,因为人工智能能够独立做出决策,并自主创造新事物。虽然最初是人类工程师设计了人工智能,但人工智能可以通过自主学习和进化,开始进行人类工程师未曾预料的行为。如果一个计算机程序不能独立学习和发展,它就不具备人工智能的特性。
尤瓦尔·赫拉利指出,当数以百万计的非人类代理开始参与与我们相关的决策,并创造新事物——从新药物到新型武器,从新艺术品到新货币——我们的社会将发生怎样的改变?我不担心科幻小说中描述的情景,比如一台电脑决定消灭所有人类并控制世界。这种可能性微乎其微。相反,我担忧的是由数百万人工智能管理的新帝国的崛起,它们能够侵犯隐私,随时监控每个人,并为了少数精英集团的利益而剥削绝大多数人。
免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,可联系本站进行审核删除。