NVIDIA 推出了 H200 NVL PCIe GPU,这是一种新型的 Hopper 架构产品,旨在提升企业服务器的 AI 和高性能计算(HPC)应用。在超算 2024 会议上发布的 H200 NVL 提供了一种低功耗、空气冷却的设计,非常适合配置灵活的数据中心,据 NVIDIA 称。
H200 NVL GPU 的优势
H200 NVL GPU 专为满足 20kW 及以下企业机架数据中心的需求而设计,这些数据中心主要使用空气冷却。这使其成为节点部署中提供精细化的重要组件,使组织能够高效优化其计算能力。该 GPU 相较其前身 NVIDIA H100 NVL 内存提升了 1.5 倍,带宽提升了 1.2 倍,从而加快了 AI 模型微调和推理性能。
技术增强
与 H200 NVL 硬件能力相辅的是 NVIDIA 的 NVLink 技术,提供的 GPU 对 GPU 通信速度是第五代 PCIe 的七倍。这一进步对大语言模型推理和微调等高需求任务尤为有利。
行业应用和案例
各个行业的企业已经在利用 H200 NVL 用于多种应用。Dropbox 利用 NVIDIA 的加速计算增强了其 AI 和机器学习能力,而新墨西哥大学则在基因组学和气候建模等研究领域中应用。 这些用例突显了 GPU 在驱动 AI 和 HPC 工作负载的效率和创新方面的潜力。
可用性和生态系统支持
包括戴尔科技、惠普企业、联想和超微等主要科技公司预计将在多种配置中支持 H200 NVL。NVIDIA 的全球系统合作伙伴将于 12 月开始提供搭载 H200 NVL 的平台。此外,NVIDIA 正在开发企业参考架构,帮助合作伙伴和客户大规模部署高性能 AI 基础设施。
欲了解更多详情,请访问 NVIDIA 官方博客这里。
Image source: Shutterstock