
国产GPU厂商摩尔线程近日在AI领域取得重要进展,其基于开源大语言模型高速推理框架vLLM(v0.4.2版本)的MUSA移植版本正式上线。此举旨在为开发者提供可参考的MUSA移植范例,并进一步壮大MUSA的生态系统。这标志着国产GPU在AI应用领域的又一突破,为开发者提供了更本土化的选择。
vLLM因其高效便捷的特性而备受好评。摩尔线程团队对vLLM进行了精细化移植适配,使其能够完美支持摩尔线程GPU后端。该项目已完全开源,开发者可基于此进行二次开发或升级到vLLM社区的最新版本,从而促进AI技术的持续创新。此举降低了开发门槛,加速了AI应用的落地。
摩尔线程自主研发的MUSA架构具有前瞻性设计,并展现出与CUDA良好的兼容性。借助MUSIFY代码自动转换工具,开发者可以便捷地将CUDA代码迁移至MUSA平台。 这大大简化了代码迁移过程,减少了以往因架构差异带来的移植成本。同时,MUSA也提供了相应的加速库,例如muDNN算子库、MCCL集合通信库和muBLAS线性代数库,可以快速替代CUDA相关库,确保性能和效率。
摩尔线程此举不仅显著提升了应用移植效率,缩短了开发周期,也提供了一套完整的工具和脚本,有效降低了开发难度。这将加速国产GPU在AI领域的应用,推动AI技术在更多行业落地。 未来,随着MUSA生态的持续发展和完善,国产GPU有望在AI领域占据更大的市场份额。更多关于摩尔线程vLLM-MUSA开源项目的详细信息,请访问其GitHub页面。
免责声明:本网站内容主要来自原创、合作伙伴供稿和第三方自媒体作者投稿,凡在本网站出现的信息,均仅供参考。本网站将尽力确保所提供信息的准确性及可靠性,但不保证有关资料的准确性及可靠性,读者在使用前请进一步核实,并对任何自主决定的行为负责。本网站对有关资料所引致的错误、不确或遗漏,概不负任何法律责任。任何单位或个人认为本网站中的网页或链接内容可能涉嫌侵犯其知识产权或存在不实内容时,可联系本站进行审核删除。