MoE模型
-
科大讯飞星火X1.5发布:国产算力赋能MoE模型训练,多语言性能直追GPT-5
AI 浪潮滚滚向前,国产大模型又添新战力。 就在今日,科大讯飞正式发布了星火认知大模型 V1.5,这次的升级,不仅在模型能力上带来了质的飞跃,更在算力平台和多语言处理方面展现了不俗…
-
中国最大开源MoE模型,255B参数无条件免费商用,元象发布
同时训练时间减少30%,推理性能提升100% 元象XVERSE发布中国最大MoE开源模型: XVERSE-MoE-A36B,该模型总参数255B,激活参数36B,达到100B模型性…