英伟达发布H200 GPU,AI算力再次突破

2024年1月12日,英伟达正式发布了专为AI训练和推理设计的新一代GPU——H200。这款芯片在算力、内存和能效方面都实现了重大突破,为AI大模型的发展提供了更强大的硬件支撑。

H200 GPU采用了最新的架构设计,相比前代产品H100,在AI训练速度上提升了约30%,同时能耗降低了20%。这一改进对于需要大量计算资源的AI大模型训练具有重要意义。

新GPU的主要技术特点:
  • 内存容量翻倍:配备了188GB的HBM3e内存,相比H100的80GB实现大幅提升
  • 内存带宽优化:内存带宽达到4.8TB/s,提升了41%
  • 精度支持增强:支持FP8精度,进一步提升训练效率
  • 互联技术升级:采用第五代NVLink技术,提升多GPU协作效率

英伟达CEO黄仁勋在发布会上表示:"H200代表了我们在AI计算领域的最新突破。随着AI模型规模不断扩大,我们需要更强大的硬件来支撑这些模型的训练和部署。"

多家云服务提供商已经宣布计划采用H200 GPU。亚马逊AWS微软Azure谷歌云都表示将在今年上半年提供基于H200的云计算服务。

业界专家认为,H200的发布将进一步推动AI大模型的发展,特别是在多模态AI和超大规模语言模型的训练方面。预计该芯片将成为下一代AI应用的重要基础设施。

返回AI新闻列表