KV缓存 AI快讯列表 | Blockchain.News
AI 快讯列表

AI 快讯列表关于 KV缓存

时间 详情
2026-01-17
09:51
Cache-to-Cache(C2C)突破:LLM无文本直接通信,提升10%准确率,实现2倍速度 | 2024人工智能趋势

根据@godofprompt报道,研究人员开发了Cache-to-Cache(C2C)方法,使大型语言模型(LLM)通过内部KV缓存直接通信,无需生成文本。这项技术在准确率上提升了8.5-10.5%,速度提升至2倍,同时完全避免了令牌浪费(来源:@godofprompt,https://x.com/godofprompt/status/2012462714657132595)。该突破对AI行业应用极具影响力,有助于构建更高效的多智能体系统,降低算力成本,并为实时AI通信、协作智能体与自主决策平台等新型商业模式创造机会。C2C为AI模型互操作性和工作流效率树立了新标准。