
近日,彭博社报道揭示了OpenAI、谷歌和Anthropic等人工智能巨头在模型研发中面临的困境:技术瓶颈和投资回报递减。这一现状引发了业界对AI发展路径的重新思考。
OpenAI的Orion模型在代码编写任务上的表现低于预期,与GPT-4相比提升有限;谷歌的Gemini也遭遇类似问题;Anthropic甚至推迟了Claude 3.5 Opus的发布。这些迹象表明,简单地扩大模型规模和算力投入,或许无法保证AI性能的线性提升,长期以来硅谷奉为圭臬的“摩尔定律”式增长模式在AI领域可能不再适用。
行业专家指出,挑战主要源于两方面:一是高质量人类生成训练数据的获取日益困难;二是维持新旧模型的开发和运营成本巨大,这给企业带来了巨大的经济压力。 这同时也暴露出,单纯追求更大规模的模型,忽视数据质量和模型实际应用场景的策略,可能导致研发效率低下和资源浪费。
为突破瓶颈,企业正探索新的策略,例如通过人类反馈强化学习(RLHF)提升模型的准确性和流畅性,以及开发专注于特定任务的AI工具,以提高模型的实用性和商业价值。 这体现了AI发展正在从追求通用能力转向更加注重特定场景应用的转变。
Hugging Face首席伦理科学家Margaret Mitchell认为,“通用人工智能(AGI)的泡沫正逐渐破灭”。 她呼吁业界探索新的训练方法,从而使AI模型在更多任务中都能展现出卓越的性能。 这一观点反映了当前AI领域对AGI发展路径的谨慎态度,以及对更有效、更可持续发展模式的探索需求。
免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,可联系本站进行审核删除。