英伟达公司正式发布了其最新的数据中心GPU产品H200,这款专为大型AI模型训练和推理优化的芯片,在性能和效率方面都实现了显著提升。
H200 GPU基于英伟达最新的Hopper架构,采用先进的4nm制程工艺,集成了1410亿个晶体管。相比前代产品H100,H200在AI训练速度上提升了近40%,同时功耗降低了20%。
最引人注目的是H200配备了141GB的HBM3e高带宽内存,这使得它能够处理更大规模的AI模型。对于当前流行的千亿参数大模型,H200可以显著减少训练时间和成本。
英伟达CEO黄仁勋在发布会上表示:"随着AI模型规模的不断增长,我们需要更强大的计算平台来支撑。H200的推出将为下一代AI突破提供必要的计算基础设施。"
多家云服务提供商和AI公司已经表示将采购H200 GPU。亚马逊AWS、微软Azure和谷歌云平台都计划在今年第四季度开始提供基于H200的云计算服务。业界预测,H200的推出将进一步巩固英伟达在AI芯片市场的领导地位。