AI 快讯列表关于 LiquidAI
| 时间 | 详情 |
|---|---|
|
2026-03-03 01:59 |
Liquid AI 发布 LFM2.5-1.2B-Thinking:1.17B 推理模型低于900MB内存、速度提升2倍——深度解析
据 DeepLearning.AI 在 X 发文称,Liquid AI 上线 LFM2.5-1.2B-Thinking,这是一款 11.7 亿参数的推理模型,内存占用低于 900MB,推理速度约为同类模型的两倍,更多细节见 The Batch。根据 DeepLearning.AI 报道,该模型专为小型设备设计,在推理基准上具备竞争力,适合用于无需云计算的本地代理,包括工具编排、数据抽取与本地流程自动化。综合 The Batch 的信息,这为边缘场景带来机会,如离线助手、隐私合规的数据处理与低时延自动化,有助于企业在受限硬件上以更低成本部署可靠的推理能力。 |