NVIDIA 的 GB200 NVL72 通过增强的 MoE 性能革新 AI - Blockchain.News

NVIDIA 的 GB200 NVL72 通过增强的 MoE 性能革新 AI

realtime news Dec 04, 2025 16:39

NVIDIA 的 GB200 NVL72 为使用专家混合(Mixture-of-Experts)架构的 AI 模型提供了 10 倍的性能提升,在效率和可扩展性方面设立了新的标准。

NVIDIA 的 GB200 NVL72 通过增强的 MoE 性能革新 AI

NVIDIA 发布了其机架级系统 GB200 NVL72,在人工智能能力上实现了重大飞跃,增强了使用专家混合(MoE)架构的 AI 模型的性能。据 NVIDIA 博客, 该系统提供了速度和效率的十倍提升,相较于之前的型号,成为 AI 技术的突破性发展。

AI 模型架构的进步

专家混合模型架构,受到人类大脑功能的启发,为每项任务选择性地激活专门的“专家”,从而在不增加计算需求的情况下提高效率。该架构已被 Kimi K2 Thinking 和 DeepSeek-R1 等领先的 AI 模型采用,目前在 NVIDIA GB200 NVL72 系统上运行显著更快。

GB200 NVL72 的极限协同设计结合了硬件和软件优化,使这些复杂模型的扩展变得前所未有的简单。该系统能够在 72 个互联 GPU 上分配任务,实现高效的内存使用和专家间的快速通信,从而克服了以前在 MoE 扩展中的瓶颈。

行业影响和采用

MoE 架构的采用变得普遍,今年发布的开源 AI 模型中超过 60% 使用了该架构。这一趋势是由于 MoE 能够提高模型智能化和适应能力,同时减少能源和计算成本。GB200 NVL72 的架构支持了这一趋势,在性能每瓦特方面带来了显著提升,并改变了 AI 部署的经济可行性。

包括 Amazon Web Services、Google Cloud 和 Microsoft Azure 在内的主要云服务提供商和企业正在集成 GB200 NVL72,以利用其功能。DeepL 和 Fireworks AI 等公司已经在利用这一技术以增强其 AI 模型,并在行业排行榜上实现了创纪录的表现。

AI 开发的未来前景

GB200 NVL72 有望影响 AI 的未来,特别是在行业向需要各种任务的专门组件的多模态模型发展时。其设计允许共享的专家池,优化了不同应用和用户需求中的效率和可扩展性。

NVIDIA 在 GB200 NVL72 上的进步不仅为当前的 AI 能力设立了新的标准,也为未来的创新奠定了基础。随着 AI 模型的不断发展,专家混合架构和 NVIDIA 的尖端技术的整合很可能在塑造人工智能的未来中发挥关键作用。

Image source: Shutterstock