AI技术在近年来如烈火烹油般炙热,其内在引擎——大模型的运行效能与底层硬件设施之间的纽带关系愈发凸显。在近期揭幕的GTC 2024大会舞台上,领军企业英伟达为大家呈现了一场科技盛宴,揭示了强大算力芯片、服务器硬件及AI软件研发领域的最新突破。大会上,英伟达隆重发布了新一代GPU家族的璀璨明星:B200芯片与GB200 Grace Blackwell超级芯片,以及一系列围绕AI技术优化的芯片和软件解决方案。

据了解,B200芯片与GB200 Grace Blackwell采用了先进的Blackwell架构,携手台积电定制的尖端4NP工艺,双芯合一,构建出前所未有的统一GPU体系,内部通信速率高达惊人的10TB/秒。其中,B200芯片配备了高达192GB的HBM3E内存。而GB200 Grace Blackwell超级芯片则是集两家之大成,由两颗B200芯片与Grace CPU紧密结合,呈现出卓越的语言模型性能,相较于前代产品提升高达30倍,而能效比却仅为其二十五分之一,展现出极致的性能与节能平衡。

除了革新的GPU,英伟达还重磅推出了第五代新NVLink芯片、GB200 NVL72服务器、X800系列网络交换机等一系列硬件新品,并预告了下一代人工智能超级计算机NVIDIA DGX SuperPOD的到来。

不仅如此,英伟达在软件层面亦有亮眼之举,其发布的AI Enterprise 5.0套件中包含了多项颇具价值的微服务,其中尤以简化企业级AI模型部署流程的NIM微服务最为瞩目。NIM通过整合算法、系统优化和运行环境,并封装成行业标准API,极大地简化了AI模型从研发到生产环境的迁移过程。开发者只需轻松将NIM微服务融入现有应用和基础设施,无需过多定制化工作或深厚的专家知识,即可实现AI模型的顺畅部署与应用。

(8613156)

友情提示

本站部分转载文章,皆来自互联网,仅供参考及分享,并不用于任何商业用途;版权归原作者所有,如涉及作品内容、版权和其他问题,请与本网联系,我们将在第一时间删除内容!

联系邮箱:1042463605@qq.com