AI 快讯列表关于 训练
| 时间 | 详情 |
|---|---|
|
2026-03-11 14:14 |
Meta MTIA重磅:两年迭代四代自研AI芯片—路线图与技术规格全解析
据Meta AI官方X账号称,Meta为缩小模型架构快速演进与传统多年芯片周期之间的差距,在两年内推出四代Meta Training and Inference Accelerator(MTIA)自研芯片,并公布了路线图与技术规格(来源:AI at Meta,链接:go.meta.me/16336d)。据AI at Meta报道,MTIA面向训练与推理场景,旨在支撑下一代AI体验,体现出减少对第三方GPU依赖、优化大规模工作负载总体拥有成本的战略取向(来源:AI at Meta)。根据AI at Meta的信息,MTIA重点在性能效率与软件栈协同,利于针对排序推荐、LLM与多模态模型进行算子与内存带宽定制,以降低延迟并提升吞吐(来源:AI at Meta)。据AI at Meta称,这种快速迭代将直接影响产能规划与供应链韧性,推动纵向一体化,在超大规模推理、能效与模型特定优化上形成潜在竞争优势(来源:AI at Meta)。 |
|
2026-02-24 12:03 |
Meta与AMD达成多年协议:部署Instinct GPU并规划6GW数据中心容量,加速生成式AI规模化
据Meta官方账号AI at Meta在X平台披露,Meta将与AMD签署多年合作协议,在全球基础设施中集成最新的Instinct GPU,并为该部署预留约6GW的数据中心规划容量。根据AI at Meta的消息,此举将加速生成式AI与推荐系统的大规模训练与推理,并在以Nvidia为主的生态之外引入第二供应来源。AI at Meta指出,采用Instinct平台有助于供应多元化与成本优化,适配超大规模模型训练与推理需求;同时,6GW规划意味着对供电、制冷与液冷解决方案的大额投入,为GPU数据中心、液冷厂商及AI作业编排工具带来商业机会。 |
|
2026-02-11 21:14 |
Karpathy推出243行纯Python版GPT:可训练与推理的极简实现—深度解析
据Andrej Karpathy在X上的发布,该项目以243行纯、无依赖的Python完整实现GPT的训练与推理,并指出这已涵盖所需的全部算法要点,其他内容仅为效率优化。根据其原帖,这份极简代码端到端呈现核心Transformer模块,为小规模语言模型教学与实验提供了清晰蓝本。依据Karpathy的说明,该项目为初创团队与研究者带来无需大型框架的快速原型机会,有利于自定义分词、注意力结构与训练循环,并推动本地与嵌入式试验。正如其公开信息所示,此举凸显透明、可审计的LLM技术栈趋势,提升团队的可复现性、上手速度与工程教学价值。 |