8月1日,中国科学院院士、清华大学人工智能研究院名誉院长张钹在ISC.AI 2024第十二届互联网安全大会的演讲上指出,当前的人工智能领域缺乏理论支撑,仅发展出针对特定领域的模型和算法。这些模型和算法都是专用的,相应的软件和硬件也必须定制,导致市场规模有限。这正是现阶段人工智能产业发展迟缓的主要原因。
张钹院士今年已经89岁高龄,他在清华大学培养了众多人工智能领域的人才。作为中国人工智能学科的奠基人之一,他在该领域拥有深厚的造诣。目前,许多来自“清华系”的大模型企业,例如生数科技、智谱AI、面壁智能和Kimi,都得益于在清华大学积累的技术基础,它们的核心技术人才或直接或间接地师承于张钹院士。
在本次演讲中,张钹院士不仅指出了当前人工智能技术存在的缺陷和问题,还对未来改进方向进行了展望。
张钹演讲时现场观众拍摄其演讲PPT 新京报贝壳财经记者罗亦丹/摄
基础模型的3大能力与1大缺陷
张钹院士认为,由于理论的限制,人工智能产业发展的第一阶段必须结合具体的应用领域,因此这一阶段发展出的人工智能属于专用人工智能,即“弱”人工智能。然而,他也指出,当前的基础模型在语言处理方面已经实现了通用性。“我们考虑基础模型时,需要关注3大能力与1大缺陷,这一点至关重要,是我们考虑未来产业发展的出发点。”
他解释道,大语言模型的强大之处体现在强大的语言生成能力、强大的人机自然交互能力和强大的举一反三能力。“大语言模型的语言生成属于开放领域,能够生成多样化的结果,所有输出人类都可以理解,即使是‘胡说八道’我们也能理解它在说什么,这一点非常重要。人类与机器在开放领域进行自然语言对话,我们之前以为要通过几代人的努力才能实现,但令人意料的是,2020年这个目标已经达成。”
张钹院士表示,大模型的缺陷是“幻觉”,“因为我们要求它有多样性的输出,它必然会产生错误。这种错误与机器产生的错误截然不同,机器产生的错误通常是可控的,是本身的错误,是必然发生的,而且是不可控的。因此,这一点也是我们日后考虑其应用时需要关注的问题。”
结合这3大能力与1大缺陷,张钹院士总结出当前大模型适用的场景:对错误的容忍程度要高。他表示,从产业情况来看,大模型的应用呈“U”字形——前部的规划、设计要求内容多样性,后部的服务、推荐也要求多样性,同时对错误的容忍程度较高,但中间部分则需要根据具体情况判断使用。
尽管存在问题,张钹院士依然强调“模型是必须要用的”,“因为有了模型底座,应用的效率和质量一定会提升。过去的应用场景是我们在空的计算机上开发软件提供服务,空的计算机相当于文盲,而现在有了大模型,平台至少像个高中生,开发效率必然会提高,未来的发展方向一定是这样的。”
张钹院士重点分析了幻觉产生的根源,他认为模型的根本限制在于目前所有的机器都是外部驱动的,人类教它们怎么做,而不是自主行动。同时,模型生成的结果受提示词的影响很大,与人类在内部意图的控制下完成工作有显著区别。
大模型的4个未来发展方向:对齐、多模态、智能体、具身智能
张钹院士介绍,未来大模型有4个发展方向,对如何改进大模型至关重要。
第一个方向是与人类对齐。“大模型没有判断对错的能力,不能自我更新,都是人类驱动下去更新的,不突破这一点,机器就不能自我进化。大模型需要外部的提示,所以在人类的驱动下改正大模型的错误是我们做的第一件工作。”
第二个方向是多模态生成。“多模态生成将来对产业的发展非常重要,因为大家看到大模型主要是生成文本,但是我们用同样的办法生成图像、声音、视频、代码之后,生成的水平是跟人类的水平接近的。我们现在为什么图像能生成的那么好,主要是把图像跟文本挂钩。所以,最本质的是文本处理的突破。”
第三个方向是AI Agent(智能体)的概念。“要把大模型和周围的虚拟环境结合起来,让环境提示它的错误,因为一件事做了之后才知道对和错,因此智能体的概念非常重要,让环境提示智能体,让它有反思的机会,去改正错误。”
第四个方向是具身智能。“通过加上机器人,让大模型在物理世界也能够工作。将来如何发展通用机器人?我认为要‘软件通用,硬件多样化’,马斯克宣传人形机器人,但我认为将来不止限于人形机器人。”
在张钹院士看来,发展第三代人工智能,首先必须建立理论,大模型的存在没有理论可以解释,所以才会引起各种困惑和误解。机器发展规模越来越大,理论不能解释就会引起恐慌。只有发展安全、可控、可信、可靠、可扩展的人工智能技术,在这一领域没有发展完善之前,人工智能始终存在安全问题。
免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,可联系本站进行审核删除。