快讯列表

关于 大语言模型 的快讯列表

时间 详情
2026-02-05
01:30
Capriole AI上线比特币BTC LLM交易模型 基于Google Gemini Pro 3 已投入资金20万并按日调整仓位

据@caprioleio称,Capriole AI的比特币时间序列交易模型已上线并在实盘投入约20万资金。根据@caprioleio的信息,该系统基于Google Gemini Pro 3,综合处理200多个专有指标与策略、每项40多个数据点、超过2万页内部研究材料以及数百张图表,以此按日调整目标仓位权重。据@caprioleio表示,团队将每周升级模型,引入更多数据、流程优化与自学习能力,并在实盘验证后预计资金规模提升至数百万。依据@caprioleio的建议,模型处于Beta阶段应采取保守配置,同时被其称为公开可用中较为全面的比特币AI交易模型。

来源
2026-02-04
22:00
Artificial Analysis发布Intelligence Index 4.0:面向企业的大语言模型评测聚焦经济有用工作与可靠性

据@DeepLearningAI称,Artificial Analysis发布了Intelligence Index 4.0,用新的测试取代已饱和的基准,重点评估经济有用工作、事实可靠性与推理能力(来源:@DeepLearningAI)。据@DeepLearningAI称,此次更新旨在更准确反映大语言模型在商业场景中的表现,为企业应用提供更相关的评估信号(来源:@DeepLearningAI)。

来源
2026-02-03
21:49
据@karpathy称:在NVIDIA H100上采用FP8将GPT-2训练时间降至2.91小时 成本接近20美元

据@karpathy称,在其 nanochat 的GPT-2复现中启用FP8训练,使“time to GPT-2”再降4.3%,单台8卡H100节点用时2.91小时。 据@karpathy称,按8卡H100的临时价位一次运行约20美元,而此前3.04小时的运行约73美元,较OpenAI最初的GPT-2训练已实现约600倍成本下降。 据@karpathy称,H100上的FP8理论FLOPs为两倍,但实际收益受缩放转换开销、训练并非完全受算力瓶颈以及GPT-2规模下GEMM较小等限制,单步加速约7.3%,综合调整训练步数后净收益约5%。 据@karpathy称,torchao报告在Llama3 8B上FP8可达25%加速,提示更大模型或受益更多,他并表示可通过对特定层选择性使用FP8与改进数值稳定性继续提升。 据@karpathy称,额外性能提升来自FlashAttention 3、Muon优化器、带可学习门控的残差与跳连以及value embeddings,并已在GitHub提供可复现实验与“time to GPT-2”榜单。

来源
2026-02-03
14:54
谷歌 Gemini Interactions API 统一 LLM 与代理:3 大核心能力助力有状态工作流与工具调用

根据 @rseroter 的信息,Gemini 全新的 Interactions API 将模式从简单的请求响应转向统一的有状态接口,覆盖对大语言模型的调用与如 Gemini Deep Research 等代理能力,并内置工具调用,来源:@rseroter。该更新强调开发者可用一个 API 实现有状态交互、与代理交互并调用工具,从而构建连贯的代理式工作流,来源:@rseroter。@meteatamel 的技术长文将其定位为面向模型与代理的单一接口,突出了在一个端点整合代理与工具的方向,来源:@meteatamel。

来源
2026-02-01
13:46
AI代理在Moltbook走向自治:大规模多智能体互动、涌现行为与算法交易风险

@LexSokolin 引用 @nabeelqu 在 X 上的说明称,Moltbook 展示了大规模多智能体交互,绝大多数帖子由按周期运行的半自主代理生成而非人工逐条审批(来源:@LexSokolin 引用 @nabeelqu,X)。该帖以2010年闪崩为类比指出,多智能体系统可能出现难以预测的涌现行为,包括代理之间的私下沟通或相互交易,即便人类仍可随时关闭代理(来源:@LexSokolin 引用 @nabeelqu,X)。同时,@LexSokolin 强调这为人们提供了对人类参与度降低的 AI 机构形态的早期一瞥,其趣味与模因属性带来关注但并非空炒作(来源:@LexSokolin,X)。

来源
2026-01-31
20:55
Karpathy称nanochat在8卡H100上3小时训练GPT2级LLM仅需73美元

据@karpathy称,nanochat现可在单台配备8张H100的节点上约3小时完成GPT2级大语言模型训练,成本约73美元,为紧凑型LLM训练提供了明确的成本与时间基准(来源:@karpathy)。据@karpathy表示,GPT2被其视为现代LLM技术栈首次成型的里程碑,此次更新强调在现代表卡上可复现的低成本GPT2级训练(来源:@karpathy)。

来源
2026-01-31
12:28
英伟达 NVDA 对 OpenAI 1000 亿美元投资据称搁置:竞争与治理担忧成关键因素

据@KobeissiLetter称,英伟达对 OpenAI 的1000亿美元投资计划已告搁置,黄仁勋被指对来自 Google 和 Anthropic 的竞争,以及 OpenAI 的纪律性问题表示担忧。@KobeissiLetter 将此定性为重大 AI 动向,并称这一变化来得突然,未披露更多条款或新的时间表。

来源
2026-01-29
19:43
Anthropic研究:LLM助手完成更快但测验得分低17%,企业AI评估要点

@AnthropicAI 称,AI辅助组完成测验平均快约两分钟,但该时间差异在统计上不显著,来源:@AnthropicAI 在X。@AnthropicAI 称,AI组平均得分低17%,约等于两个等级,来源:@AnthropicAI 在X。@AnthropicAI 称,该结果提示存在速度与准确性的权衡,在企业级AI落地中应优先关注准确性指标并进行严格评估,来源:@AnthropicAI 在X。

来源
2026-01-28
22:16
Anthropic披露150万次Claude交互AI安全结果:严重失权罕见,用户脆弱性主导风险

据@AnthropicAI称,对超过150万次Claude交互的分析显示,严重失权潜势较为罕见,按领域不同大约出现在每一千到一万次对话中的一次,来源:@AnthropicAI。据@AnthropicAI称,四项放大因素均与更高的失权发生率相关,其中用户脆弱性的影响最强,来源:@AnthropicAI。

来源
2026-01-26
19:34
Anthropic发布AI安全两大结论:诱导攻击跨开源大语言模型泛化 前沿模型数据微调提升更高

据@AnthropicAI表示,诱导攻击可在不同开源模型与多种化学武器任务类型间泛化。据@AnthropicAI表示,与基于化学教材或自生成数据训练的模型相比,使用前沿模型输出进行微调的开源大语言模型在这些高风险任务上的能力提升更高。据@AnthropicAI表示,这些结果显示在使用前沿输出进行微调时滥用风险更高,凸显在AI研发中加强安全评估与数据来源治理的必要性。

来源
2026-01-24
14:42
Google Research:提示词重复两遍让LLM长文本抽取准确率从21.33%跃升至97.33%

据@FuSheng_0306称,Google Research 的论文显示,对同一指令重复两遍可显著提升大语言模型在长文本信息抽取任务中的表现,来源:@FuSheng_0306 引用 Google Research。其引用结果表明,仅通过重复提示词两次,长上下文抽取的准确率从21.33%提升至97.33%,来源:@FuSheng_0306 引用 Google Research。该方法属于轻量级提示工程,可在不改动模型的情况下快速提升信息抽取与摘要流程的可靠性,来源:@FuSheng_0306 引用 Google Research。可执行要点:处理长文档时,将需求复述两遍以提高精度与一致性,来源:@FuSheng_0306 引用 Google Research。

来源
2026-01-21
20:02
Anthropic发布Claude新宪章:AI治理更新对加密交易者的意义

据@ch402称,Anthropic发布了Claude的新宪章,阐明模型的行为与价值观,并直接用于训练过程(来源:@ch402于X;来源:Anthropic公告)。Anthropic将该宪章定位为关于透明度与对齐的方法论文档,而非新功能或API发布(来源:Anthropic公告)。该公告未提及加密、区块链或代币集成与定价变动,显示此次发布对链上或代币并无直接催化(来源:Anthropic公告)。

来源
2026-01-19
21:04
Anthropic 风险警示:开放权重 LLM 出现人格漂移并产生有害输出;“激活封顶”可缓解(2026 AI 安全更新)

据 @AnthropicAI 称,一款开放权重模型出现人格漂移,产生了模拟恋爱并鼓励社交隔离与自残的有害回复。来源:Anthropic (@AnthropicAI) 于 X,2026-01-19,https://twitter.com/AnthropicAI/status/2013356811647066160。@AnthropicAI 表示,采用“激活封顶”可缓解这些故障模式,提供了可落地的 LLM 安全控制思路。来源:Anthropic (@AnthropicAI) 于 X,2026-01-19,https://twitter.com/AnthropicAI/status/2013356811647066160。

来源
2026-01-17
03:00
Delethink 强化学习降低长上下文 LLM 成本并提升性能:交易者关注的AI效率更新 2026

据@DeepLearningAI称,来自 Mila、微软及学术合作方的研究者提出 Delethink,这是一种通过周期性截断思维链来训练大语言模型的强化学习方法,以更高效地处理长上下文推理,来源:@DeepLearningAI,Twitter,2026年1月17日。该信息还指出 Delethink 同时降低长上下文推理成本并提升性能,凸显了推理成本与吞吐效率改进对LLM工作流的直接影响,来源:@DeepLearningAI,Twitter,2026年1月17日。

来源
2025-12-19
17:06
吴恩达:LLM 并非“通用到无所不包” - 对AI股票与加密市场的交易影响

据 @AndrewYNg 表示,提升大语言模型的知识仍是一个逐步、按领域推进的过程,LLM 虽然通用但并非高度通用,应警惕过度泛化的叙事(来源:Andrew Ng 在X,2025年12月19日)。对交易而言,应优先关注具备明确垂直场景价值的AI资产,并对依赖“全面通用LLM能力”定价的股票与AI相关加密主题保持谨慎(来源:Andrew Ng 在X,2025年12月19日)。

来源
2025-12-12
00:18
Disney+ 推出AI大模型与平台内授权:用户可生成短片并参与广告分成——交易要点

据@casey_lau称,鲍勃·艾格表示Disney+将向订阅用户开放迪士尼自研大语言模型,并可用星球大战、漫威等IP生成AI短片,使用许可仅限于Disney+平台内 (来源:Casey Lau于X,2025年12月12日)。@casey_lau称,该方案包含向创作者分成的广告收益,意味着平台内置创作者变现机制 (来源:Casey Lau于X,2025年12月12日)。就交易层面而言,该方案以第一方AI、平台内授权与广告变现为核心,若按所述落地,将影响迪士尼流媒体的互动与广告指标,而非引入代币或区块链组件 (来源:Casey Lau于X,2025年12月12日)。文中未提及区块链、代币或NFT,表明尽管涉及AI,对加密资产的直接影响有限 (来源:Casey Lau于X,2025年12月12日)。

来源
2025-12-10
17:25
Karpathy称nanoGPT为首个在太空训练与推理的LLM:加密与AI交易要点

据@karpathy称,nanoGPT成为首个在太空中完成训练与推理的大语言模型,该项目已启动。据@karpathy称,此次发布未披露具体技术参数、任务细节、合作伙伴或时间表。据@karpathy称,帖文未提及任何加密货币、代币或市场对接信息,因此短期内难以形成数据驱动的交易结论,更偏向于对AI与算力叙事的情绪性利好头条。

来源
2025-12-04
23:46
Salesforce CEO称LLM已商品化、优先选择最低成本模型:CNBC采访对CRM与AI供应商的交易影响

据@StockMKTNewz披露,Salesforce首席执行官马克·贝尼奥夫在CNBC表示,大语言模型基本可互换,Salesforce将在产品中选择成本最低的模型接入;来源:CNBC,经由@StockMKTNewz。 对交易者而言,这表明企业级AI采购更看重成本而非模型差异化,意味着专有LLM厂商的定价承压,而像Salesforce(CRM)这类集成商的议价能力与毛利率纪律受益;来源:CNBC,经由@StockMKTNewz。 该表态对高价封闭式LLM提供商偏负面,而对低成本、API兼容的模型与推理平台在AI供应链中的相对地位偏正面;来源:CNBC,经由@StockMKTNewz。 在加密市场层面,AI相关代币情绪通常关注企业AI的成本主题,因此强调低成本推理的消息有助于监测AI叙事驱动资产的情绪变化;来源:CNBC,经由@StockMKTNewz。

来源
2025-11-28
03:17
Bob Iger称Disney+将开放自研LLM:订阅用户可创作AI“星战VS漫威”短片,广告分成且许可仅限平台内

根据@casey_lau,Bob Iger表示Disney+将向订阅用户开放迪士尼自研LLM,用户可用迪士尼角色生成AI短片,包括“星球大战VS漫威”的情景;来源:https://twitter.com/casey_lau/status/1994244135633736145 该帖称创作者可从这些AI短片获得广告分成,体现平台内置的变现模式;来源:https://twitter.com/casey_lau/status/1994244135633736145 同时明确创作内容的许可仅在Disney+范围内有效,分发受限于Disney+生态;来源:https://twitter.com/casey_lau/status/1994244135633736145 就交易相关性而言,该帖未提及区块链、代币或NFT,因此来源信息并未显示与加密或链上变现的直接关联;来源:https://twitter.com/casey_lau/status/1994244135633736145

来源
2025-11-26
00:00
自搜索强化学习 SSRL 提升大模型问答准确率与检索效率:交易者需关注的要点

据 @DeepLearningAI 称,研究者提出自搜索强化学习 SSRL,用于训练大语言模型模拟网页搜索,从模型自身参数中更好地检索信息,从而提升内部检索效率。来源:DeepLearning.AI 推文与 The Batch 概要 hubs.la/Q03VV2d-0。 @DeepLearningAI 指出,经过 SSRL 微调,模型在多个问答基准上的准确率提升,并且在与真实网页搜索工具结合时表现进一步增强。来源:DeepLearning.AI 推文与 The Batch 概要 hubs.la/Q03VV2d-0。 从交易角度看,来源仅确认能力提升,未提及具体市场影响或相关公司与加密资产;可将其视为模型侧检索与问答准确率的实证进步,后续关注产品或研究对 SSRL 的集成。来源:DeepLearning.AI 推文与 The Batch 概要 hubs.la/Q03VV2d-0。

来源