11月8日重要消息,英伟达正式发布了H200 Tensor Core GPU,这款专为AI和高性能计算设计的新一代芯片在性能上实现了显著飞跃。H200采用了先进的HBM3e内存技术,内存带宽和容量都有大幅提升。
据英伟达官方数据,H200相比上一代H100在大语言模型训练中的性能提升了90%,在推理任务中的吞吐量提升了60%。新芯片配备了141GB的HBM3e内存,内存带宽达到4.8TB/s,为处理更大规模的AI模型提供了硬件基础。
多家云服务提供商已经宣布将采购H200 GPU来升级其AI计算基础设施。AWS、Microsoft Azure和Google Cloud都表示将在2024年第一季度提供基于H200的AI训练和推理服务。这将为AI创业公司和研究机构提供更强大的计算能力。
英伟达CEO黄仁勋在发布会上表示,H200的推出将加速AGI(通用人工智能)的发展进程。随着AI模型规模的不断扩大,对计算能力的需求也在快速增长,H200将为下一代AI应用提供必要的算力支撑。