腾讯混元Turbo S快思考模型发布,输入价格低至0.8元/百万tokens

2025年2月27日,腾讯正式发布其自主研发的快速思考模型 Turbo S,此举标志着腾讯在人工智能大模型领域的重要突破,预示着国内AI应用将迎来更高效、更低成本的新阶段。

根据腾讯官方介绍,Turbo S 与以往的 Deepseek R1、混元 T1 等“慢思考”模型存在本质区别。 传统的慢思考模型侧重于“思考后再回答”,响应速度相对较慢。而 Turbo S 则致力于实现“秒回”级别的快速响应,其吐字速度提升了一倍,首字时延更是大幅降低了 44%。 在知识、数理、创作等多个关键领域,Turbo S 均展现出卓越的性能。

更重要的是,Turbo S 通过创新的模型架构设计,显著降低了部署成本,这无疑将极大地推动大模型应用的普及。业内专家分析,部署成本的降低意味着中小企业和开发者也能更容易地接入和使用先进的大模型技术,从而加速各行各业的智能化转型。

腾讯混元Turbo S快思考模型发布,输入价格低至0.8元/百万tokens

心理学研究表明,人在日常生活中大约 90% 到 95% 的决策依赖于直觉。 Turbo S 所代表的“快思考”模式,恰如人类的直觉,能使大模型在通用场景下迅速响应,满足人们对实时信息处理的需求。 相比之下,“慢思考”则类似于理性思维,更侧重于通过逻辑分析来解决复杂问题。 腾讯强调快慢思考的结合,旨在使大模型在解决不同类型的问题时更加智能和高效,兼顾速度和深度。

在多个业界公认的公开基准测试中,腾讯混元 Turbo S 在知识、数学、推理等关键能力上表现出色,性能直逼 DeepSeek V3、GPT-4o、Claude 3.5 等国际领先模型。 腾讯通过融合长短思维链,在保证文科类问题快速响应的同时,还基于自研的混元 T1 慢思考模型合成了长思维链数据,显著改进了理科推理能力,实现了文理兼修。

在底层架构方面,Turbo S 创新性地采用了 Hybrid-Mamba-Transformer 融合模式。 这种融合模式巧妙地降低了传统 Transformer 结构的计算复杂度,并有效地减少了 KV-Cache 缓存占用,从而显著降低了训练和推理成本。 这种架构上的突破解决了传统纯 Transformer 结构大模型在长文本训练和推理方面成本高昂的难题,既发挥了 Mamba 高效处理长序列的优势,又保留了 Transformer 善于捕捉复杂上下文信息的优点。

腾讯混元Turbo S快思考模型发布,输入价格低至0.8元/百万tokens

腾讯明确指出,Turbo S 将成为腾讯混元系列衍生模型的核心底层基座,为其推理、长文、代码等各种衍生模型提供强大的基础能力支撑。 基于 Turbo S,腾讯已经自研了推理模型 T1,该模型已在腾讯元宝平台上线,允许用户根据自身的需求灵活选择 Deepseek R1 或腾讯混元 T1 模型进行提问。

腾讯混元Turbo S快思考模型发布,输入价格低至0.8元/百万tokens

腾讯混元团队还宣布,正式版的腾讯混元 T1 模型 API 将很快上线,并对外提供接入服务。 在定价方面,Turbo S 的输入价格为 0.8 元/百万 tokens,输出价格为 2 元/百万 tokens,相较于前代混元 Turbo 模型,价格有了显著的下降,进一步降低了使用门槛。

总而言之, 腾讯 Turbo S 的发布,不仅仅是技术上的进步,更预示着人工智能大模型应用生态将迎来新的发展机遇。 腾讯的这一系列创新不仅展示了其在人工智能领域的深厚积累,也为大模型应用的广泛普及奠定了坚实的基础,加速推动各行各业的智能化升级。

免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,可联系本站进行审核删除。
(0)
AI快讯网编辑-青青AI快讯网编辑-青青
上一篇 2025年 2月 27日 下午8:19
下一篇 2025年 2月 27日 下午9:58

相关推荐

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注

欢迎来到AI快讯网,开启AI资讯新时代!