2025年2月28日下午,第三届北京人工智能产业创新发展大会的“AI+计算视听”分论坛在国家会议中心二期成功举办。本次分论坛以“AI引领,视听无界”为主题,作为大会的重要组成部分,汇聚了来自政府、学术界和企业界的众多专家学者,共同探讨人工智能在视听领域的创新应用与发展趋势。

备受瞩目的新兴云平台GpuGeek积极参与了本次大会,并重点展示了其最新推出的DeepSeek大模型一体机。该一体机旨在为算法工程师提供即开即用的强大算力,加速AI模型的研发与应用。GpuGeek还在大会上详细介绍了其在全球范围内的资源节点布局以及模型及镜像市场的丰富多样性,彰显了其独特的平台优势。
GpuGeek定位于面向算法工程师的一站式AI基础设施(AI Infra)平台,致力于提供弹性、易用、灵活的底层技术服务。通过对象存储、NAS存储、开发工具、模型部署、模型API等一系列功能,GpuGeek为开发者打造高效便捷的AI开发环境。值得一提的是,GpuGeek创新性地采用算力合作、联合运营、收益分成结算等模式,力图构建一个类似于“滴滴”的GPU算力交易网络,旨在高效连接算力供需双方,优化资源配置效率。

在平台功能方面,GpuGeek突出了高效启动、灵活计费、便捷使用和高效协作等四大特性。用户只需短短半分钟即可完成账号注册、选择镜像并创建实例,极大地降低了使用门槛。平台支持秒级计费,用户可根据实际需求灵活调整GPU卡数 (最高支持8卡GPU),且无需重新配置环境,有效降低了使用成本。GpuGeek预置了TensorFlow、Pytorch、PaddlePaddle、Colossal-AI、DeepSeed等主流开源框架以及多种CUDA版本,同时集成了在线IDE工具,支持用户一键开启编程,大幅提升了开发效率。此外,用户还可通过API创建和删除GPU容器,实现模型部署的动态伸缩。GpuGeek还提供开源数据集并鼓励用户分享,为算法研究提供了便利。其镜像与模型市场则为个人用户和企业用户分别提供了开源大模型微调镜像及模型和云上搭建专属大模型的空间。
GpuGeek的全球资源节点布局是其核心竞争力之一。除了在庆阳、宿迁、湖北等地设立节点外,GpuGeek还在香港、达拉斯等地部署了海外节点。考虑到算法工程师在进行跨国部署时常遇到的镜像下载速度慢、推理延迟高以及数据合规性等问题,GpuGeek的海外节点能够实现模型镜像的秒级加载,推理延迟可低至0.5秒,并提供一键式的数据合规操作,能够有效满足欧洲用户对于实时响应的需求,并保障亚太团队的数据同步,从而为用户带来高速、流畅、便捷的大模型使用体验。这种全球布局体现了GpuGeek对于用户需求的深刻理解和积极响应。

在用户体验优化方面,GpuGeek也投入了大量的精力。作为一个新兴平台,GpuGeek秉持“不卷价格,只卷用户体验”的理念,致力于为所有平台使用者提供流畅、便捷和多样化的使用体验。为此,平台推出了云大使激励、镜像创作激励、邀请有礼等一系列活动,鼓励用户在深入钻研技术的同时,积极参与社区交流,分享创作思路和使用心得。值得关注的是,GpuGeek近期新增了对kata的支持,通过runv使用虚拟机(VM)作为容器的运行环境,进一步提升了平台的隔离性、安全性与性能,展现了GpuGeek在技术上的不断精进。
通过积极参与此次人工智能产业创新发展大会,GpuGeek认真倾听了来自行业各方的声音,并与参会嘉宾进行了深入的交流。展望未来,GpuGeek将继续专注于提供更加优质、高效的云服务,不断提升用户满意度,推动人工智能产业的创新发展。