一条就256GB!SK海力士展示新一代DDR5内存
快科技11月28日消息,最近在美国圣路易斯举办的SC25超算大会上,SK海力士全面展示了新一代内存、SSD,尤其是大容量的DDR5、HBM4内存引人关注。针对数据中心市场,尤其是AI应用,SK海力士开发了...
快科技11月28日消息,在AI大模型训练/推理上,NVIDIA的显卡无疑是目前使用最多的,AMD、Intel及谷歌等公司份额没法比,问题来了,NVIDIA到底强在哪里?
这里不用提什么CUDA生态优势,也不用说AI算子等参数,Artificial Analysis直接对比了当前的三大推理方案的实际表现,分别使用谷歌TPU v6e、AMD MI300X 及NVIDIA H100/B200来对比。
测试的内容比较多,不过我们只看一个综合性的就够了,在30Token/s速度下每百万输入输出的成本,跑的模型是Llama 3.3 70B。

在这方面,H100的成本是1.06美元,H200也只有1.17美元,B200 TensorRT是1.23美元,B200是1.45美元,AMD的MI300X是2.24美元,而谷歌的TPU v6e是5.13美元。
对比下来,N卡相对AMD是至少2倍的性价比优势,对比谷歌则是5倍左右的优势,差距非常明显。
哪怕是用NVIDIA最新最贵的B200显卡,成本提升也不算太明显,毕竟性能是大增的,比AMD及谷歌的依然有很大优势。
现在可以说,AMD及谷歌当前的AI卡还是差不少的,但两家下一代产品提升很猛,AMD的MI400X系列最多432GB HBM4显存,谷歌的TPU v7据说也是几倍的性能提升,届时可能改写这个评测结果。
当然,NVIDIA也不会坐以待毙,下一代的Rubin显卡也发布了,明年也会陆续上市,有望进一步扩大差距。

《NVIDIA、AMD、谷歌AI卡实测对比:N卡仍有5倍性价比优势》转载自互联网,如有侵权,联系我们删除,QQ:369-8522。