英伟达今日发布了专为AI训练设计的H200 GPU,这款芯片在AI计算性能方面相比前代产品提升了90%,成为目前市场上最强大的AI训练芯片。
H200 GPU采用了先进的5纳米制程工艺,集成了800亿个晶体管。芯片配备了141GB的HBM3e高速内存,内存带宽达到了4.8TB/s,为大规模AI模型训练提供了强大的算力支持。
在实际测试中,H200在大语言模型训练任务中的性能表现突出。训练GPT级别的模型时,相比H100的训练时间缩短了近一半,同时能耗效率提升了30%。
英伟达CEO黄仁勋表示,H200的推出将进一步推动生成式AI的发展。该芯片特别优化了Transformer架构的计算,能够更高效地处理注意力机制和矩阵运算。
多家云计算服务商已经宣布将采用H200构建新一代AI训练集群。亚马逊、微软、谷歌等公司预计将在年内部署基于H200的AI服务,为开发者提供更强大的计算资源。
市场分析师预测,H200的推出将进一步巩固英伟达在AI芯片市场的领导地位,同时也将推动整个AI产业向更高性能和更低成本的方向发展。