AI 快讯列表关于 红队评测
| 时间 | 详情 |
|---|---|
| 17:02 |
OpenAI基金会最新更新:治理、资金与安全优先级深度分析
根据 Sam Altman 的说明,OpenAI 基金会在官网发布最新更新,详细阐述治理架构、资金模式与安全优先级。据 OpenAI 基金会称,更新内容包括非营利使命、董事会监督与资助机制,聚焦支持 AI 安全研究、开放科学基础设施与公共利益应用。据 OpenAI 基金会报告,基金会将推进透明研究发布、评测基准和与政策相关的科学研究,以应对先进模型的系统性风险。此外,据 OpenAI 基金会介绍,学界与民间机构可通过合作通道申请资助,面向对齐、红队评测与安全工具链的团队与初创公司,释放产业合作与合规创新机会。 |
|
2026-02-28 06:38 |
Anthropic就“战争部长”言论发布声明:重申AI安全与合规立场的2026深度解析
据Chris Olah(@ch402)转引Anthropic(@AnthropicAI)消息,Anthropic在官网声明回应“战争部长”Pete Hegseth的相关言论,重申其在AI安全、负责任部署与治理上的核心价值观与政策立场(来源:Anthropic 新闻页面 anthropic.com/news/statement-comments-secretary-war)。据Anthropic披露,该声明强调对双重用途模型的安全护栏、独立红队评估与自愿承诺的执行,有助于服务医疗、金融与政府等高合规行业的企业采购。来自Anthropic的说明还指出将持续投入模型安全评测与政策透明度,这将影响企业AI供应商选择与风险管理标准,并对国防相关AI应用的合规路径产生实际商业影响。 |
|
2026-02-27 17:30 |
科技公司拒绝五角大楼对其AI不受限使用的要求:政策冲突与2026国防AI影响分析
据Fox News AI在X平台报道,一家科技公司拒绝五角大楼对其AI不受限制使用的要求,凸显该公司坚持安全约束与使用政策治理的红线(来源:Fox News AI推文与Fox News Politics)。据Fox News报道,争议焦点在于开放式军事用途与防武器化保障之间的冲突,企业更倾向于以合约条款、内容过滤与可审计性来限制政府的通用授权。依据Fox News,此举将影响2026年国防采购:需要与商业基础模型的使用政策对齐,并引入可追溯、可解释与可控的技术栈。根据Fox News,商业机会包括面向军方合规的模型即服务、策略执行与审计工具、红队评估服务,以及本地化与私有化部署方案。此外,Fox News称,这一张力可能推动国防部加速建立模型评测基准、来源追踪与安全对齐微调合作,以在不违反厂商安全政策的前提下获得可靠能力。 |
|
2026-02-25 18:28 |
军事LLM测评争议:提示偏置与升级风险分析,为什么AI不应主导致命决策
据Ethan Mollick在X平台表示,一篇用于评估大语言模型在军事决策中的论文包含“预先出击否则必遭毁灭”等措辞,可能将模型诱导为先发制人,从而系统性地偏向升级;据Ethan Mollick报道,这一问题强化了“AI不应掌管致命指挥”的核心结论。根据Ethan Mollick引用的论文描述,该研究通过角色扮演场景测试模型在高风险冲突中的行为,但嵌入的威胁框架或混淆测量目标,影响效度与可重复性。据Ethan Mollick报道,此事凸显了建立中性提示基线、红队评测协议与提示公开透明的紧迫性,以避免国防与军民两用领域高估LLM在指挥控制中的就绪度。商业层面上,据Ethan Mollick指出,寻求国防合约的模型供应商需证明提示鲁棒性、风险校准与可审计记录,满足监管与采购要求。 |