AI 快讯列表关于 AMD
| 时间 | 详情 |
|---|---|
|
2026-04-01 20:46 |
AI Dev 26 议程发布:Google DeepMind、AMD、Oracle、Neo4j 等领衔——5大商业机会与实战路线
据 DeepLearning.AI 在 X 平台发布的信息,AI Dev 26 将于本月在旧金山举行,并已公布议程与讲者阵容,涵盖 Google DeepMind、Oracle、AMD、Actian、Neo4j 与 Arm 等行业领军者(来源:DeepLearning.AI,2026年4月1日推文)。据该公告,此次跨层栈组合意味着将聚焦前沿模型、企业数据平台、图数据库与AI硬件加速,直接利好RAG、向量检索、知识图谱与企业级MLOps的落地(来源:DeepLearning.AI)。据 DeepLearning.AI 报道,参会者可获取来自 Google DeepMind 的模型优化实践、AMD 与 Arm 的加速器与CPU路线图,以及 Oracle 与 Actian 的数据管道方案,从而在生产环境中降低推理成本并缩短部署周期(来源:DeepLearning.AI)。根据该推文,议程还有助于开展与模型供应商、图数据库平台(如 Neo4j)及芯片生态的合作评估,指导2026年的采购与运维策略(来源:DeepLearning.AI)。 |
|
2026-03-25 22:07 |
深度解读:DeepSeek 拒绝英伟达与AMD,优先与华为共享 DeepSeek-V4 的最新分析
据 DeepLearning.AI 在 X 上披露,DeepSeek 拒绝向英伟达与 AMD 提供 DeepSeek-V4 的早期访问权限,同时与华为共享该模型;据 The Batch(经由 DeepLearning.AI)报道,此举凸显中美博弈加剧以及出口管制对高端算力竞争影响有限。根据 DeepLearning.AI,传统做法是硬件厂商获得预发布访问以优化 CUDA、ROCm 与编译器链;限制英伟达与 AMD 或将放缓其对 DeepSeek-V4 的推理优化,而华为 Ascend 生态的本地化适配可能获得先发优势。依据 DeepLearning.AI 的报道,企业应重新评估多硬件推理策略,谈判与特定加速器绑定的托管 SLA,并通过可移植性中间层降低供应商锁定风险,以应对地缘政治驱动的模型访问不对称。 |
|
2026-03-16 23:00 |
AMD与DeepLearning.AI携手AI Dev 26旧金山:4月30日AMD AI DevDay与开发者GPU限时访问
据DeepLearning.AI在X平台发布的信息,DeepLearning.AI与AMD合作举办AI Dev 26 × San Francisco,并提醒与会者可于4月30日参加附近的AMD AI DevDay,且AMD向开发者提供为期1个月的资源访问(来源:DeepLearning.AI)。据DeepLearning.AI称,该合作聚焦AMD加速器的实操与工具链,表明ROCm生态与推理优化的支持在扩大。根据DeepLearning.AI的通报,此类短期开发者访问有助于初创团队低成本试用AMD Instinct与Radeon AI硬件,探索微调与推理部署机会。DeepLearning.AI还指出,两场活动地点与时间相邻,便于跨场交流,加速从CUDA向ROCm的迁移评测,并识别适合在AMD硬件上运行的大模型服务工作负载。 |
|
2026-03-10 16:49 |
AI Dev 26 旧金山最新阵容:Google DeepMind、AMD、Snowflake、Replit、AI21 Labs 等重磅加入
据 DeepLearning.AI 在 X(DeepLearningAI)发布的信息,AI Dev 26 x San Francisco 新增来自 Google DeepMind、AMD、Actian、Snowflake、Replit、AI21 Labs 和 Flwr Labs 的演讲者,重点分享现代 AI 系统的构建与部署实践(消息源:DeepLearning.AI,2026 年 3 月 10 日)。根据该公告,议题将覆盖基础模型落地、LLM 数据基础设施、GPU 加速优化与生产级 MLOps,直接对应企业对低成本推理、RAG 数据管道与模型治理的需求。正如 DeepLearning.AI 所述,模型实验室(Google DeepMind、AI21 Labs)、硬件(AMD)、云数据平台(Snowflake)、开发者工具(Replit)与联邦学习框架(Flwr Labs)的组合,意味着将有关于大规模推理、向量检索集成与隐私保护训练的实战内容,为微调服务、RAG 平台、GPU 优化工具商带来近期开拓机会。 |
|
2026-02-24 12:03 |
Meta与AMD达成多年协议:部署Instinct GPU并规划6GW数据中心容量,加速生成式AI规模化
据Meta官方账号AI at Meta在X平台披露,Meta将与AMD签署多年合作协议,在全球基础设施中集成最新的Instinct GPU,并为该部署预留约6GW的数据中心规划容量。根据AI at Meta的消息,此举将加速生成式AI与推荐系统的大规模训练与推理,并在以Nvidia为主的生态之外引入第二供应来源。AI at Meta指出,采用Instinct平台有助于供应多元化与成本优化,适配超大规模模型训练与推理需求;同时,6GW规划意味着对供电、制冷与液冷解决方案的大额投入,为GPU数据中心、液冷厂商及AI作业编排工具带来商业机会。 |
|
2025-10-13 14:14 |
OpenAI与博通合作开发定制AI芯片,扩展与Nvidia和AMD的合作
根据Greg Brockman (@gdb) 在Twitter上的消息,OpenAI正式宣布与博通(Broadcom)建立合作关系,共同开发OpenAI专属AI芯片。这项合作是在最近与Nvidia和AMD合作基础上的又一重要举措,将帮助OpenAI为特定AI工作负载定制硬件性能,满足全球日益增长的算力需求(来源:x.com/OpenAINewsroom/status/1977724753705132314)。这一趋势显示,AI行业领军企业正通过自研芯片优化性能,降低供应链风险,并把握企业级AI部署的新商机。 |