AI快讯网:DeepSeek V4 正式发布,携手华为芯片打破闭源垄断

在大模型技术迭代步入深水区的当下,开源与闭源的边界正在被重新定义。 контекст 窗口的扩展与推理成本的降低,已成为衡量模型实用性的核心指标。此次 DeepSeek 的新动作,不仅是一次版本更新,更是对现有市场格局的一次有力冲击。

在 Agent 能力、世界知识和推理性能上均实现国内与开源领域的领先。

henry 鱼羊 发自 凹非寺

AI快讯网 |

刚刚,DeepSeek-V4 来了!

预览版正式上线并同步开源。

一共两个版本:

  • DeepSeek-V4-Pro:对标顶级闭源模型,1.6T,49B 激活,上下文长度 1M;
  • DeepSeek-V4-Flash:更小更快的经济版,284B,13B 激活,上下文长度 1M。

AI快讯网:DeepSeek V4 正式发布,携手华为芯片打破闭源垄断

官方原话是:在 Agent 能力、世界知识和推理性能上均实现国内与开源领域的领先

并且:

目前 DeepSeek-V4 已经成为公司内部员工使用的 Agentic Coding 模型,据评测反馈使用体验优于 Sonnet 4.5,交付质量接近 Opus 4.6 非思考模式。但仍与 Opus 4.6 思考模型存在一定差距。

AI快讯网:DeepSeek V4 正式发布,携手华为芯片打破闭源垄断

目前官网和 APP 都上了,API 服务也已同步更新。

大家都关心的国产算力方面,划重点,下半年批量上华为算力

AI快讯网:DeepSeek V4 正式发布,携手华为芯片打破闭源垄断

这次 V4 一口气发了两个版本。

V4-Pro,性能比肩顶级闭源模型。

官方给出的判断有三条:

  • Agent 能力大幅提高:在 Agentic 能力 Coding 评测中,V4-Pro 已达到当前开源模型最佳水平,并在其他 Agent 相关评测中同样表现优异。内部测评中,Agent Coding 模式下,V4 体验优于 Sonnet 4.5,交付质量接近 Opus 4.6 非思考模式,但仍与 Opus 4.6 思考模式存在一定差距。
  • 丰富的世界知识:DeepSeek-V4-Pro 在世界知识测评中,大幅领先其他开源模型,仅稍逊于顶尖闭源模型 Gemini-Pro-3.1。
  • 世界顶级推理性能:在数学、STEM、竞赛型代码的测评中,DeepSeek-V4-Pro 超越当前所有已公开评测的开源模型,取得了比肩世界顶级闭源模型的优异成绩。

AI快讯网:DeepSeek V4 正式发布,携手华为芯片打破闭源垄断

V4-Flash,更小更快的经济版。推理能力接近 Pro,世界知识储备稍逊一筹,但参数和激活更小,API 更便宜。

在 Agent 任务方面,DeepSeek-V4-Flash 在简单任务上与 DeepSeek-V4-Pro 旗鼓相当,但在高难度任务上仍有差距。

在洗车测试上,V4 也是快速通过。

AI快讯网:DeepSeek V4 正式发布,携手华为芯片打破闭源垄断

而在“绝望的父亲”这个经典的生物学场景当中,DeepSeek-V4 并没有一轮 get 到红绿色盲这个关键点(根据遗传学规律,如果一名女性是红绿色盲,其生物学父亲必然也是)。

AI快讯网:DeepSeek V4 正式发布,携手华为芯片打破闭源垄断

值得一提的是,从今天开始,1M 上下文是 DeepSeek 所有官方服务的标配。

一年前,1M 上下文还是 Gemini 独家的王牌;其他所有闭源模型要么 128K 要么 200K;开源这边几乎没人玩得起这个量级。

DeepSeek 直接把百万上下文从一个「高端功能」挪成了「水电煤」。

而且开源。他们怎么做到的,发布稿里直接给了答案——

V4 开创了一种全新的注意力机制,在 token 维度进行压缩,结合 DSA 稀疏注意力一起用。相比传统方法,对计算和显存的需求大幅降低。

AI快讯网:DeepSeek V4 正式发布,携手华为芯片打破闭源垄断

DSA 不是新词。半年前 V3.2-Exp 那次更新首次引入,当时外界关注度不高,因为跑分和 V3.1-Terminus 几乎一样,看起来像一次没什么料的中间版本。

现在回头看,那是 V4 的地基。

Agent 这边,V4 针对 Claude Code、OpenClaw、OpenCode、CodeBuddy 等主流 Agent 产品做了适配和优化,代码任务、文档生成任务都有提升。

发布稿里还附了一张 V4-Pro 在某 Agent 框架下生成的 PPT 内页示例。

AI快讯网:DeepSeek V4 正式发布,携手华为芯片打破闭源垄断

API 这边,V4-Pro 和 V4-Flash 同步上线,支持 OpenAI ChatCompletions 接口和 Anthropic 接口两套。

base_url 不变,model 参数改成 deepseek-v4-pro 或 deepseek-v4-flash 即可调用。

两个版本最大上下文都是 1M,都同时支持非思考模式和思考模式。思考模式下可以通过 reasoning_effort 参数调强度,两档 high 和 max。官方建议复杂 Agent 场景直接上 max。

AI快讯网:DeepSeek V4 正式发布,携手华为芯片打破闭源垄断

这里有个重点——下半年批量上华为算力

此外,旧模型名要下架。

deepseek-chat 和 deepseek-reasoner 将在三个月后 (2026 年 7 月 24 日) 停用,当前阶段内这两个名字分别指向 V4-Flash 的非思考和思考模式。

对个人开发者影响不大,改一个 model 参数。对接了生产环境的公司,这三个月要去做迁移。

发布稿的结尾,DeepSeek 自己引了一句话。

「不诱于誉,不恐于诽,率道而行,端然正己。」

这是荀子《非十二子》里的一句。字面意思是,不被赞誉诱惑,不被诽谤吓到,按自己认定的道往前走,端正自己。

放在今天这个场景里,有点意思。

过去半年,关于 V4 什么时候发、是不是跳票、是不是已经被别家超越、是不是已经被 Claude 蒸馏数据搞定了之类的传言在中文和英文 AI 圈来来回回跑了好几轮。年初甚至还有人信誓旦旦说 V4 会在春节前发,结果等到了四月底。

他们没回应过一次。

然后在某个周五的上午,把 V4 放出来,同步开源,同步上线官网和 App,同步更新 API,顺便把内部员工已经弃用 Claude 的事实写进发布稿。

没有路线图,没有直播,没有访谈。

DeepSeek 已经做到了。

从行业视角观察,此次更新标志着长上下文处理技术已从实验性阶段迈向规模化应用。1M 上下文的标准配置将极大降低开发者在处理长文档、复杂代码库时的工程门槛。同时,明确适配华为算力路线,表明国产大模型正在加速构建自主可控的软硬一体化生态,这对降低供应链风险具有战略意义。

[1]https://huggingface.co/collections/deepseek-ai/deepseek-v4
[2]https://modelscope.cn/collections/deepseek-ai/DeepSeek-V4

DeepSeek-V4 技术报告:

免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,可联系本站进行审核删除。
(0)
AI快讯网编辑-青青AI快讯网编辑-青青
上一篇 9小时前
下一篇 7小时前

相关推荐

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

欢迎来到AI快讯网,开启AI资讯新时代!