AI 快讯列表关于 本地推理
| 时间 | 详情 |
|---|---|
|
2026-03-03 16:01 |
苹果平价版 iPhone 走向 AI 优先:本地大模型与 Siri 升级的深度分析
据 The Rundown AI 报道,苹果正将一款平价版 iPhone 打造成 AI 优先设备,主打本地生成式模型推理、Siri 自动化升级与更紧密生态协同,消息来源为 The Rundown AI 在 tech.therundown.ai 的文章。根据 The Rundown AI,该策略聚焦本地计算以降低云端成本与延迟,并落地摘要、实时转写、图像理解等功能,在不增加大量服务器支出的前提下扩展 AI 能力。据 The Rundown AI 称,苹果或采用本地小型模型与云端大模型的混合架构,以在日常任务中提升可靠性与续航表现。根据 The Rundown AI,此举将带动开发者更多使用 Core ML 与本地推理工具链,并通过 App Store 订阅与 AI 增值服务在新兴市场释放商业机会。 |
|
2026-03-02 23:47 |
Qwen 3.5 小模型重磅发布:0.8B–9B 原生多模态,零云成本本地智能体
据 God of Prompt 在 X 平台披露,Qwen 一次性发布 Qwen3.5-0.8B、2B、4B、9B 四款小模型,全部为原生多模态且与旗舰同一基座,可在笔记本甚至手机本地运行,无需 API 费用与云依赖(据 God of Prompt 报道)。据阿里巴巴 Qwen 在 X 表示,0.8B/2B 面向边缘设备高效推理,4B 是轻量级智能体的强力基座,9B 已逼近更大体量模型表现,并同步开放 Base 模型便于研究与微调(据 Alibaba Qwen)。据 Alibaba Qwen 公告及其提供的 Hugging Face 与 ModelScope 链接,这一发布为本地多模态助理、视觉语言智能体、隐私合规的企业工作流等带来即用型机会,避免数据外泄与持续云成本。 |
|
2025-06-24 20:24 |
O3-mini级AI模型何时能在智能手机本地运行?行业分析与时间表
根据Sam Altman在推特上的最新提问,关于O3-mini级AI模型何时能够在智能手机本地运行,引发了AI行业的广泛讨论。业界专家指出,随着高通Snapdragon AI和苹果Neural Engine等硬件加速技术的发展,移动端大语言模型的本地推理能力正逐步增强(来源:Sam Altman 推特,2025-06-24)。分析师认为,O3-mini级模型需要高内存和算力,一旦实现本地运行,将推动AI助手、隐私保护应用和实时翻译等领域的商业机会。实现这一突破的时间窗口主要依赖于移动芯片与模型量化技术的进步,预计2-4年内有望实现(来源:高通AI研究,2024;苹果WWDC,2024)。 |