MoE模型训练 AI快讯列表 | Blockchain.News
AI 快讯列表

AI 快讯列表关于 MoE模型训练

时间 详情
2026-01-06
15:14
NVIDIA Vera Rubin平台量产:推理成本降低10倍,MoE训练GPU需求减少4倍,领先Blackwell

根据@ai_darpa在Twitter发布的信息,NVIDIA首席执行官Jensen Huang宣布Vera Rubin AI平台已全面量产,领先于当前市场上尚难获得足够RAM的Blackwell GPU。该平台在AI基础设施方面实现了显著突破,包括推理Token成本最多降低10倍,MoE模型训练GPU需求减少4倍。通过Spectrum-X Photonics,能效提升5倍,系统稳定运行时间提升5倍;同时,Ethernet Photonics带来10倍更高的可靠性,整体组装和维护速度提升18倍。Vera Rubin平台为企业级AI集群带来显著的降本增效机会,进一步强化NVIDIA在AI硬件更新迭代速度上的行业主导地位(来源:@ai_darpa,Twitter,2026年1月6日)。

2026-01-05
22:57
Nvidia发布Rubin芯片,实现AI推理成本降10倍和MoE模型训练效率提升4倍,重塑AI基础设施

根据Sawyer Merritt消息,Nvidia发布了新一代Rubin芯片,Elon Musk称其为“AI的火箭引擎”。Rubin平台在推理token成本上可降低10倍,并在训练MoE模型时GPU需求减少4倍,相较于上一代Blackwell平台大幅降低了硬件投入和运营成本。此外,Rubin芯片通过Spectrum-X以太网光子技术,实现5倍能效和系统稳定性提升。这些突破性进展巩固了Nvidia在AI基础设施领域的领导地位,为企业大规模部署前沿AI模型带来更高效率和更低总拥有成本,拓展了AI商业化机会。(来源:Sawyer Merritt,Twitter)