AI 快讯列表关于 MoE模型训练
| 时间 | 详情 |
|---|---|
|
2026-01-06 15:14 |
NVIDIA Vera Rubin平台量产:推理成本降低10倍,MoE训练GPU需求减少4倍,领先Blackwell
根据@ai_darpa在Twitter发布的信息,NVIDIA首席执行官Jensen Huang宣布Vera Rubin AI平台已全面量产,领先于当前市场上尚难获得足够RAM的Blackwell GPU。该平台在AI基础设施方面实现了显著突破,包括推理Token成本最多降低10倍,MoE模型训练GPU需求减少4倍。通过Spectrum-X Photonics,能效提升5倍,系统稳定运行时间提升5倍;同时,Ethernet Photonics带来10倍更高的可靠性,整体组装和维护速度提升18倍。Vera Rubin平台为企业级AI集群带来显著的降本增效机会,进一步强化NVIDIA在AI硬件更新迭代速度上的行业主导地位(来源:@ai_darpa,Twitter,2026年1月6日)。 |
|
2026-01-05 22:57 |
Nvidia发布Rubin芯片,实现AI推理成本降10倍和MoE模型训练效率提升4倍,重塑AI基础设施
根据Sawyer Merritt消息,Nvidia发布了新一代Rubin芯片,Elon Musk称其为“AI的火箭引擎”。Rubin平台在推理token成本上可降低10倍,并在训练MoE模型时GPU需求减少4倍,相较于上一代Blackwell平台大幅降低了硬件投入和运营成本。此外,Rubin芯片通过Spectrum-X以太网光子技术,实现5倍能效和系统稳定性提升。这些突破性进展巩固了Nvidia在AI基础设施领域的领导地位,为企业大规模部署前沿AI模型带来更高效率和更低总拥有成本,拓展了AI商业化机会。(来源:Sawyer Merritt,Twitter) |