近日,中国人工智能公司DeepSeek团队悄然发布了其最新版本的模型——DeepSeek-V3,版本号为DeepSeek-V3-0324。 此举虽然低调,但仍然引发了业界的广泛关注。 该模型参数规模达到了6850亿,相较于之前的6710亿参数版本,参数量虽有小幅提升,但更重要的是模型架构和训练方式的潜在优化。

目前,DeepSeek尚未公布新版模型的详细系统卡信息,但开源地址 https://huggingface.co/deepseek-ai/DeepSeek-V3-0324 已经开放,方便开发者下载和测试。更引人注目的是,DeepSeek-V3采用了更为宽松的MIT协议,与DeepSeek-R1保持一致。 这意味着开发者拥有更大的自由度,可以进行模型蒸馏、商业应用,甚至对模型进行二次开发和再分发。这种开放姿态有助于加速DeepSeek-V3的普及和应用,并促进整个大模型生态的繁荣。
初步体验报告显示,DeepSeek-V3在代码生成、数学推理等领域展现出了显著的性能提升。一位海外AI博主更是评价道, DeepSeek-V3在代码能力上已经具备了与Anthropic的Claude Sonnet 3.5竞争的实力。 考虑到Claude Sonnet 3.5在程序员群体中积累的良好口碑,这一评价无疑是对DeepSeek-V3性能的高度认可。 为了解实际性能,我们对DeepSeek-V3的表现进行了进一步测试。

在实际测试中,DeepSeek-V3在网站开发和UI设计方面的进步令人惊喜。 例如,输入提示词“设计一个美观的个人博客网站,要求具有科技感,并直接开发成可用网页”后,DeepSeek-V3在短短2分钟内便生成了一个包含400多行代码的网页。 该网页采用了粒子背景动画、赛博朋克风格的UI设计,以及打字机动画和光波扩散效果的按钮等,视觉效果颇为出色,体现了对用户提示词意图的深刻理解和有效执行。 相比之下,相同指令下,旧版DeepSeek-V3生成的网站代码量较少,且在审美风格上存在明显差距,缺乏科技感和现代感。

DeepSeek-V3在数学能力上也展现出了进步。 尽管面对复杂数学问题时,依然可能出现错误答案,但它在给出最终答案后,会尝试反思,并修改自己的解题过程。 这种自我纠错能力表明,DeepSeek-V3具备持续学习和改进的潜力。 这种反思机制在大模型中并不常见,是 DeepSeek-V3 的一个亮点。

在文科类问题上,DeepSeek-V3也展现出了进步。 例如,在回答“布须曼人喝不喝牛奶?”的问题时,DeepSeek-V3 提供了更为结构化的回答,包含更全面和详细的背景信息,同时仍保持了快速的生成速度。 这种变化让人们联想到 DeepSeek-V3 似乎融合了 V3 和 R1 的优点,更倾向于通过更长的输出来提供更完整的信息。
