Deepseek-R1 等 AI 模型测试:英伟达 GB200 NVL72 性能较 HGX 200 提升 10 倍
最新 12 月 4 日消息,科技媒体 Wccftech 昨日(12 月 3 日)发布博文,报道称在“混合专家”模型上,英伟达的 GB200 NVL72 AI 服务器取得重大性能突破。
基于开源大语言模型 Kimi K2 Thinking、Deepseek-R1-0528、Mistral Large 3 测试,相比上一代 Hopper HGX 200 性能提升 10 倍。



最新注:混合专家模型(MoE)是一种高效的 AI 大模型架构。它不像传统模型那样在处理每个任务时都动用全部“脑力”(参数),而是像一个专家团队,根据任务类型只激活一小部分最相关的“专家”(参数子集)来解决问题。这样做能显著降低计算成本,提高处理速度。


英伟达为了解决 MoE 模型扩展时遇到的性能瓶颈,采用了“协同设计”(co-design)的策略,该方法整合了 GB200 的 72 芯片配置、高达 30TB 的快速共享内存、第二代 Transformer 引擎以及第五代 NVLink 高速互联技术。
通过这些技术的协同工作,系统能够高效地将 Token 批次拆分并分配到各个 GPU,同时以非线性速率提升通信量,从而将专家并行计算(expert parallelism)提升至全新水平,最终实现了性能的巨大飞跃。
除了硬件层面的协同设计,英伟达还实施了多项全栈优化措施来提升 MoE 模型的推理性能。例如,NVIDIA Dynamo 框架通过将预填充(prefill)和解码(decode)任务分配给不同的 GPU,实现了任务的解耦服务,允许解码阶段以大规模专家并行方式运行。

同时,系统还采用了 NVFP4 格式,这种数据格式在保持计算精度的同时,进一步提高了性能和效率,确保了整个 AI 计算流程的高效稳定。
该媒体指出,此次 GB200 NVL72 取得的性能突破,对英伟达及其合作伙伴具有重要意义。这一进展成功克服了 MoE 模型在扩展时面临的计算瓶颈,从而能够满足日益增长的 AI 算力需求,并巩固了英伟达在 AI 服务器市场的领先地位。


《Deepseek-R1 等 AI 模型测试:英伟达 GB200 NVL72 性能较 HGX 200 提升 10 倍》转载自互联网,如有侵权,联系我们删除,QQ:369-8522。
相关图文
-
蓝色起源公布 AI 造的“月球吸尘器”,吸口月尘就能变能源
蓝色起源在2025年亚马逊re:Invent大会上公布了一款由AI设计的“月球真空”设备,可将月球尘埃转化为能源。该技术由初创公司Istari Digital开发,解决了月球表面航天器在月夜期间能源短缺的问题。#太空科技# #AI创新#... -
卡梅隆:《阿凡达:火与烬》制作过程没使用任何 AI 技术
詹姆斯・卡梅隆澄清《阿凡达:火与烬》未使用生成式AI技术,强调真人表演的重要性。他认为AI应在后期制作中发挥作用,而非取代人类创作。电影将于12月19日全球上映。#阿凡达# #AI技术#... -
Anthropic CEO 暗讽谷歌、OpenAI:我们专心搞企业 AI,活得挺滋润
Anthropic CEO达里奥・阿莫代伊批评OpenAI和谷歌的“红色警戒”策略,强调公司专注于企业级AI,避免过度竞争。他认为企业级AI更注重编程能力和科学能力,而非用户参与度。 #AI竞赛# #企业级AI#... -
卢伟冰回应罗福莉加入小米及未来 AI 新战略:不能透露太多,但小米在大模型应用方面进展远超预期
卢伟冰透露,小米在前几个季度就已经开始了在 AI 上的压强式投入,在 AI 大模型和应用方面的进展远超预期。小米认为,AI 与物理世界的深度结合是智能科技的下一站。#卢伟冰回应罗福莉加盟小米#... -
国家数据局:我国已建成高质量数据集总量超 500PB
国家数据局最新数据显示,我国高质量数据集总量已突破500PB,为AI模型性能提升和创新加速提供支撑。国家数据局局长刘烈宏强调,需加大数据领域投入,培育“为高质量数据付费”意识。#人工智能##数据要素#...

















