备受科技界瞩目的OpenAI,正准备兑现其一个多月前关于推出开源模型的暗示。4月1日,OpenAI首席执行官山姆·奥特曼(Sam Altman)在社交平台X(原Twitter)上的一条消息引发广泛关注:OpenAI计划在未来几个月内发布一款功能强大且具备推理能力的“开放权重”(Open-Weight)大型模型。
这一消息旋即被全球科技媒体竞相报道,许多中文媒体以“OpenAI即将发布开源模型”为题进行跟进。不少行业观察者认为,此举是OpenAI“重新拥抱开源”的重要信号。然而,真正的含义可能比表面看起来更加微妙。
值得注意的是,奥特曼并未直接使用“开源”(open-source)一词,而是选择了更为审慎的词汇——“开放权重”(open-weight)。这细微的差别引发了广泛讨论。那么,什么是“开放权重”?
简而言之,“开放权重”指的是模型训练完成后,公开其参数,允许开发者基于这些权重进行部署、测试和微调。但这并不意味着开放训练数据、完整的训练代码,也无法保证无限制的使用。与传统意义上代码、数据、方法全面透明、自由使用的“开源”相比,“开放权重”显然存在差距。更准确地说,它是一种技术上的妥协,旨在保留核心技术壁垒的同时,向开发者社区释放部分能力。

事实上,OpenAI并非首个采用“开放权重”策略的公司。诸如DeepSeek、阿里云的Qwen以及Meta的LLaMA等模型,在开源策略上都选择了开放权重作为核心手段。它们允许外部开发者直接部署模型,并提供推理代码、微调脚本和评估工具等。这基本上是大模型“开源”的最低门槛:开发者可以下载模型进行本地部署、微调和推理服务。
虽然都标榜“开放权重”,但实际的开放程度却存在显著差异。例如,DeepSeek发布的V2, V3和R1等模型不仅开放了权重,还提供了相应的技术报告,并采用了限制极少的MIT开源协议。阿里云的Qwen模型也采用了较为宽松的Apache 2.0开源协议,允许用户自由地使用、修改和分发代码,包括商业用途。相比之下,Meta的LLaMA虽然开放了模型参数和推理脚本,但其使用协议更加严格,限制了其在开源社区的广泛应用。

从行业实践来看,如果OpenAI即将发布的新模型也开放模型权重和推理代码,并支持开发者本地部署,那么它完全可以被纳入当下“开源模型”的范畴。尽管具体的开源策略尚未公布,但这一举动无疑将对开源模型社区产生深远影响。
回顾OpenAI的发展历程,该公司早在GPT-2时代就曾考虑过“闭源路线”。尽管当时迫于舆论压力公开了完整版的GPT-2,但随后的GPT-3却标志着OpenAI彻底转向闭源。因此,此次“重新开放”可以被视为OpenAI向社区释放的一种积极信号,表明它开始认真考虑开源的可行性。
奥特曼在今年2月曾暗示,OpenAI开源模型的方向可能是“o3-mini级别”或“手机端侧级别”。结合最新推文中提到的“具备推理能力的强大新开放权重模型”,可以合理推断,OpenAI最终选择了“o3-mini级别”的模型作为突破口。这一选择颇具战略意义,因为推理能力已成为大模型发展的关键共识。

当前,开源模型生态正在迅速发展,Meta、Mistral、Qwen、DeepSeek等模型纷纷涌现,它们在构建模型的同时也在积极打造生态。越来越多的硬件和软件厂商加入开源模型生态阵营,放弃自主训练大模型的路线,转而专注于模型微调和应用落地。这无疑对OpenAI构成了一种潜在威胁。因此,OpenAI此次重返开源社区,既是为了发布一款模型,更是为了巩固其在行业中的领先地位,并可能在一定程度上改变整个开源模型社区的竞争格局。
