基础设施,在 AI 时代里是什么样一个角色?有人说像电,有人说像水。

无问芯穹认为,优良的基础建设,是一种「魔法」,能够让大模型成本有效下降,让更多人拥抱新技术。

7 月 4 日,无问芯穹联合创始人兼 CEO 夏立雪发布了全球首个千卡规模异构芯片混训平台,千卡异构混合训练集群算力利用率最高达到了 97.6%。

四个月前,无问芯穹 Infini-AI 大模型开发与服务云平台宣布首次公测,已有智谱 AI、月之暗面、生数科技等大模型公司客户在 Infini-AI 上稳定使用异构算力,还有 20 余家 AI Native 应用创业公司在 Infini-AI 上持续调用各种预置模型 API,使用无问芯穹提供的工具链开发自身业务模型。

建设大模型时代的 AI Native 基础设施,不仅能够为 AI 开发者提供更加通用、高效、便捷的研发环境,同时也是实现算力资源有效整合,支撑 AI 产业可持续发展的关键基石。与国际上模型层与芯片层「相对集中」的格局相比,中国的模型层与芯片层更加有多样性。

然而,多样性也意味着挑战,大量的异构芯片也形成了「生态竖井」,不同硬件生态系统封闭且互不兼容,给算力的使用方带来一系列技术挑战。这是构建 AI Native 基础设施的最大难点,也是当前大模型行业面临「算力荒」的重要原因。

无问芯穹具备顶尖的 AI 计算优化能力与算力解决方案能力,以及对「M 种模型」与「N 种芯片」行业格局的前瞻判断,率先构建了「MxN」中间层的生态格局,实现多种大模型算法在多元芯片上的高效、统一部署。

截至目前,Infini-AI 已支持了 Qwen2、GLM4、Llama3、Gemma、Yi、Baichuan2、ChatGLM3 系列等共 30 多个模型,以及 AMD、华为昇腾、壁仞、寒武纪、燧原、海光、天数智芯、沐曦、摩尔线程、NVIDIA 等 10 余种计算卡。

「技术上限推高与技术落地扩散不矛盾,且取决于我们决心如何对待这个技术。」夏立雪表示,「未来我们用各种 AI 应用时,也不会知道它调用了哪些基座模型,用到了哪种加速卡的算力——这就是最好的 AI Native 基础设施。」

#欢迎关注爱范儿官方微信公众号:爱范儿(微信号:ifanr),更多精彩内容第一时间为您奉上。

爱范儿|原文链接· ·新浪微博

友情提示

本站部分转载文章,皆来自互联网,仅供参考及分享,并不用于任何商业用途;版权归原作者所有,如涉及作品内容、版权和其他问题,请与本网联系,我们将在第一时间删除内容!

联系邮箱:1042463605@qq.com