← 返回

加拿大隐私监管机构认定OpenAI违反联邦及省级隐私法律

加拿大隐私专员菲利普·杜弗雷斯内及其在阿尔伯塔、魁北克和不列颠哥伦比亚省的同行调查发现,OpenAI在训练其人工智能模型过程中未遵守加拿大联邦及省级隐私法规,包括《个人信息保护与电子文件法》(PIPEDA)。调查指出,OpenAI在未取得充分同意的情况下收集了大量个人数据,且缺乏适当保护措施防止数据用于模型训练。此外,用户无法访问、更正或删除其数据,且公司对ChatGPT生成内容的准确性问题处理不力。OpenAI已承诺整改,包括下线违规旧模型、部署数据过滤工具、在三个月内更新ChatGPT未登录版本提示、六个月内优化数据导出工具及加强数据保护机制。该调查始于2023年,因2026年2月坦...

加拿大隐私监管机构认定OpenAI违反联邦及省级隐私法律

加拿大隐私专员菲利普·杜弗雷斯内(Philippe Dufresne)及其在阿尔伯塔、魁北克和不列颠哥伦比亚省的同行发布调查结果,指出OpenAI在训练其人工智能模型过程中未遵守加拿大联邦及省级隐私法律,包括《个人信息保护与电子文件法》(PIPEDA)。

调查发现,OpenAI在未获得充分用户同意的情况下,收集了大量个人数据,并缺乏适当安全措施防止这些数据用于模型训练。此外,尽管ChatGPT界面提示用户互动可能用于训练,但OpenAI从第三方购买或网络抓取的数据中包含大量用户不知情的个人信息。用户无法访问、更正或删除这些数据,也被视为严重违规。

监管机构还批评OpenAI对ChatGPT生成内容的不准确性缺乏有效应对机制。尽管OpenAI在调查中表现出合作态度,已下线违反加拿大隐私法规的旧模型,并引入过滤工具以识别和屏蔽公开互联网及授权数据集中的个人身份信息(如姓名、电话号码),但仍需进一步整改。

根据协议,OpenAI将在三个月内于ChatGPT未登录版本中添加明确提示,告知用户聊天内容可能用于训练,敏感信息不应共享。六个月内,公司将优化数据导出工具,使其更易使用,并明确用户如何质疑ChatGPT所提供信息的准确性;同时确认已对退役数据集实施强保护,防止其用于后续开发;并测试针对非公众人物的公众人物亲属(如未成年人)的保护措施,确保模型拒绝披露其姓名或出生日期。

此次调查始于2023年,但2026年2月坦布勒里奇枪击案后监管压力骤增。OpenAI此前曾标记涉事枪手账户存在暴力倾向,但未向加拿大执法部门通报。事件后,监管机构要求OpenAI加强安全政策,该公司最终同意未来与加拿大执法及卫生机构加强合作。

编辑点评

此次加拿大对OpenAI的隐私调查具有重要的国际示范意义。它反映了全球监管机构对大型科技公司数据使用行为日益严格的审查趋势,尤其是在人工智能训练数据来源透明度和用户知情权方面。加拿大作为全球数据隐私立法较为先进的国家之一,其执法行动可能对其他国家监管框架产生参考效应,尤其是在欧盟《通用数据保护条例》(GDPR)和美国各州隐私法之间形成中间标准的背景下。

事件的深层背景在于,AI模型训练依赖海量数据,而这些数据往往包含未经用户明确授权的个人信息,这在技术进步与隐私保护之间形成了核心矛盾。OpenAI的整改承诺,如数据过滤、用户提示优化和数据退役保护,体现了行业在合规压力下逐步建立技术与伦理平衡的努力。然而,其在枪击案前未能及时向执法部门通报风险,也暴露了AI平台在公共安全责任方面的制度性短板。

未来,该事件可能推动国际社会重新审视AI安全监管框架,尤其是在心理健康、暴力预测与执法协同方面。若更多国家跟进类似调查,或将迫使科技公司重构数据收集、模型训练和安全响应机制,从而影响全球AI产业的发展路径和商业模式。

相关消息:https://www.engadget.com/2166560/canadian-officials-claim-openai-violated-federal-and-provincial-privacy-laws/
当日日报:查看 2026年05月07日 当日日报