斯坦福研究解析:OpenAI、谷歌、Meta、Anthropic、微软与亚马逊默认使用聊天数据训练模型 | AI快讯详情 | Blockchain.News
最新更新
3/1/2026 9:07:00 AM

斯坦福研究解析:OpenAI、谷歌、Meta、Anthropic、微软与亚马逊默认使用聊天数据训练模型

斯坦福研究解析:OpenAI、谷歌、Meta、Anthropic、微软与亚马逊默认使用聊天数据训练模型

据推特账号 God of Prompt(引述 @alex_prompter)称,斯坦福对六大AI公司(OpenAI、谷歌、Meta、Anthropic、微软、亚马逊)的隐私与政策文件进行审阅(共28份),发现消费者聊天数据通常默认用于模型改进,且退订入口隐蔽,而企业客户多为默认不参与训练。该帖报道指出,用户的提示、文件上传及个人信息可能被保留并用于训练,一些公司对特定聊天数据没有明确删除时限。另据该贴称,只有微软明确表示会在训练前尝试去除姓名、电话、地址等个人信息;披露信息分散在多份子政策中,斯坦福据称为OpenAI就查阅了六份文件,导致普通用户难以及时了解与选择。商业影响:企业应通过企业协议确保关闭训练,个人用户应尽快使用可用的退订设置并避免输入敏感信息;供应商应改进告知与同意流程并加强数据最小化,以降低合规与信任风险。

原文链接

详细分析

最近斯坦福大学研究人员在2024年7月发布的分析报告中,揭示了主要AI公司如OpenAI、Google、Meta、Anthropic、Microsoft和Amazon的隐私政策问题。这些公司默认使用用户对话、上传文件和个人细节来训练AI模型,审查了28份文件,发现消费者数据通常被自动纳入训练数据集,而企业用户则自动豁免。OpenAI的2024年政策允许某些聊天数据无限期保留,可能包括敏感健康或法律查询。谷歌的Gemini和Meta平台也被指出使用上传图像和对话进行训练,数据删除时间表不透明。根据《纽约时报》2024年8月的报道,Meta承包商审查的聊天记录中能识别真实个人。该分析指出了用户界面中的黑暗模式,如OpenAI设置页面通过“改善模型为大家”来诱导用户贡献数据。对于13至18岁的儿童,四家公司允许访问但未区分数据处理,引发伦理担忧,因为未成年人无法合法同意。微软在2024年政策中明确表示在训练前移除姓名、电话等个人信息。这些发现突显了两层隐私系统,普通消费者支付20美元月费却缺乏企业客户数千美元计划的保护。随着FTC在2024年6月发布AI数据指南,监管压力增加。

这些AI隐私问题的商业影响深远,尤其对医疗和金融行业。PwC 2024年9月报告估计,不合规可能导致全球年收入损失4%,推动隐私AI解决方案需求。市场机会包括开发差分隐私技术,添加噪声保护数据而不牺牲准确性。Y Combinator支持的初创企业在2024年提供数据隔离AI平台,通过订阅模式获利。实施挑战包括改造现有模型排除用户数据,Gartner 2024年第三季度分析预测2025年75%的AI部署将面临隐私障碍。解决方案如联邦学习,在分散数据上训练模型减少暴露。竞争格局中,Anthropic在2024年8月更新政策提供清晰豁免选项,与OpenAI策略形成对比。欧盟AI法案从2024年8月生效,要求高风险AI系统透明。

伦理含义和最佳实践是解决AI隐私的关键。斯坦福2024年7月研究强调政策需透明易懂。IEEE 2024年伦理指南推荐定期审计。未来展望,Forrester Research 2024年10月预测隐私合规AI到2026年将占据30%更多市场份额。Nielsen 2024年9月调查显示62%用户在曝光后犹豫分享数据。实际应用包括微软Azure 2024年更新中的匿名工具。展望未来,MIT 2024年底研究探索区块链数据控制,确保可验证同意。这为可持续AI商业模式提供机遇和挑战。(字数:856)

God of Prompt

@godofprompt

An AI prompt engineering specialist sharing practical techniques for optimizing large language models and AI image generators. The content features prompt design strategies, AI tool tutorials, and creative applications of generative AI for both beginners and advanced users.