AI 快讯列表关于 长上下文大模型
| 时间 | 详情 |
|---|---|
|
2025-10-25 09:49 |
Ring-linear注意力架构革新长上下文LLM推理,推理速度提升10倍
据@godofprompt报道,Ling团队最新论文《Every Attention Matters》提出了Ring-linear注意力架构,彻底改变了大语言模型(LLM)的长上下文推理方式。该架构融合Softmax与线性Attention,实现推理成本降低10倍,并在支持多达128,000个token的情况下保持SOTA准确率(来源:@godofprompt,Twitter,2025年10月25日)。此外,论文显示训练效率提升50%,推理速度提升90%,并实现超长序列下的稳定强化学习优化。这一创新为无需超大参数模型的LLM长上下文应用提供高效扩展,为AI文档分析、法律科技和科学研究等需大窗口场景带来新商机。 |
|
2025-09-12 17:59 |
Coursera推动AI技能教育转型与新AI工具亮相,Andrew Ng在The Batch解读行业趋势
据DeepLearning.AI报道,Andrew Ng在Coursera年度大会上指出,Coursera正向以技能为导向的AI教育模式转型,并推出多项AI驱动的学习工具(来源:DeepLearning.AI,2025年9月12日)。报告还提到Meta和OpenAI加强了聊天机器人儿童安全机制,谷歌被要求与AI竞争对手共享搜索索引,以及某私立学校系统每天实施2小时的AI辅助教学,这些趋势为AI教育科技、内容安全和长上下文大模型如ATLAS带来商业机遇(来源:DeepLearning.AI)。 |