1. 比尔·盖茨:元认知,人工智能的下一个前沿
近年来,人工智能领域的报道和研究成果,让我们对人类大脑的复杂性和惊人之处有了全新的认识。虽然大型语言模型(LLMs)在自然语言处理方面表现出色,但它们缺乏人类看似理所当然的整体思维能力,无法像人类一样思考自身思维。 比尔·盖茨在Next Big idea Club播客节目中,特别提到了“元认知”这一概念,认为它将成为人工智能发展的下一个前沿领域。
盖茨在节目中与主持人鲁弗斯·格里斯科姆(Rufus Griscom)讨论了“元认知”的含义,并将其定义为“一种能够思考自身思维的系统”。 换句话说,元认知意味着能够从更广泛的角度思考问题,并对问题的答案进行评估,例如“这个问题的答案有多重要?”、“我如何验证自己的答案?”、“哪些外部工具可以帮助我?”等等。
盖茨指出,现有的LLMs,例如GPT-4或Llama,在整体“认知策略”方面仍然存在不足。他举例说明,这些模型仅仅通过不断的计算来生成每个标记和序列,而不会像人类一样后退一步,思考整体目标和策略。他认为,扩大训练数据和提升计算能力并不能完全解决问题。未来,人工智能研究人员需要将重点转移到“元认知”策略上,教导人工智能模型更聪明地思考,而不是更努力地思考。
盖茨认为,“元认知”研究可能是解决大型语言模型最棘手问题,即可靠性和准确性的关键。他认为,人工智能技术有望超越人类的能力,但其可靠性仍然是一个关键问题。许多新的研究都试图提升人工智能模型的“元认知”能力,以此来解决这些问题,并最终实现更加稳定和可靠的智能系统。
2. 雪佛龙案判决对科技和人工智能的影响分析
美国最高法院对雪佛龙公司(CheVRon)的裁决引发了广泛关注,其影响不仅局限于该案本身,也波及到科技和人工智能领域。在Loper Bright诉RAImondo案中,最高法院推翻了“雪佛龙原则”(Chevron Doctrine),该原则要求法院尊重联邦机构对法律的(合理)解释,即使该法律没有直接解决争议的中心问题。简而言之,最高法院认为司法机构比行政机构更具能力(也可能更少受到政治影响)来解释国会通过的法律中存在法律模糊之处。
这种裁决有一定的合理性,但反对者认为,行政机构拥有多年的主题和行业专业知识,这使他们能够更有效地解释国会的意图并解决争端。取消“雪佛龙原则”可能会给人工智能领域带来新的挑战,因为该原则允许国会制定一般性指令,然后由机构专家来定义具体规则,并在实践中解决争议。现在,国会需要提前制定更详细的法律,并尽力预测未来可能出现的争议,这对人工智能这种快速发展的新兴领域来说尤其困难。
在“后雪佛龙”时代,如果国会通过了人工智能法规,法院将负责解释法律,但届时行业、技术和参与者可能已经发生了根本性的变化。 此外,法院是否愿意迎接这些挑战,仍是一个未知数。 最高法院已经拒绝了德克萨斯州和佛罗里达州关于社交媒体内容审核的法规,这表明法院可能不愿意处理人工智能领域的复杂法律问题。
3. Figma 的 AI 功能模仿苹果设计引发的争议
设计应用程序制造商 Figma 推出了其最新的“Make Design”功能,但该功能却因为模仿苹果公司天气应用程序的设计而引发了争议。 该功能生成的天气应用程序用户界面设计与苹果公司的天气应用程序极为相似,这让人怀疑生成式人工智能模型的训练数据是否不足,导致过度依赖单一的训练数据,在本例中就是苹果的设计。
尽管如此,Figma 首席执行官迪伦·菲尔德(Dylan Field)否认他们的产品在训练过程中接触过其他应用设计。他解释说,该功能使用现成的大型语言模型,结合了 Figma 自行委托的模型所使用的设计系统。 但他承认该模型的可变性较低,这说明“Make Design”功能的训练数据不足,尽管他没有直接承认是 Figma 的错误。