← 返回

ChatGPT卡通画像热潮引发隐私担忧

2026年2月13日,美国《Mashable》科技编辑蒂莫西·贝克·沃斯发布文章指出,ChatGPT用户上传的AI生成卡通画像可能暴露过多个人信息。OpenAI可提供数据删除服务,专家警告过度依赖AI可能影响现实生活。

ChatGPT卡通画像热潮引发隐私担忧

2026年2月13日|美国科技媒体《Mashable》披露,当前ChatGPT用户自发生成并分享的AI卡通画像存在数据安全隐患。该功能通过用户输入的个人信息生成卡通形象,但过度精准的画像可能暴露隐私。

功能原理与用户反馈

用户通过输入包含职业特征等信息的提示词(如“根据你掌握的所有信息生成我的职业卡通画像”),可获得由AI生成的个性化图像。测试显示,系统在缺乏深度信息时会使用耳机、咖啡杯等通用符号,但精准画像则基于用户历史对话数据。

隐私保护方案

1. 删除聊天记录:通过ChatGPT“Your Chats”界面删除单次对话,或在“Data Controls”中批量清除历史记录
2. 账户注销OpenAI隐私门户允许用户申请删除账户和生物识别数据
3. 数据使用限制:关闭“为所有人优化模型”的数据训练授权

专家警示

《Mashable》指出,部分用户将AI视为情感伴侣,OpenAI已收到未成年人使用AI陪伴服务的投诉。行业专家强调,过度依赖AI可能影响现实社交关系与心理健康。

企业争议

注:《Mashable》母公司Ziff Davis于2025年4月起诉OpenAI,指控其在AI训练过程中侵犯版权。

编辑点评

此事件凸显AI技术发展中的隐私悖论。全球超1亿ChatGPT用户通过交互积累数据,精准服务背后是个人信息的持续暴露。OpenAI的隐私保护措施虽符合行业规范,但用户主动意识不足仍是隐患。随着欧盟《人工智能法案》和中国《生成式人工智能服务管理暂行办法》等监管框架推进,AI企业数据治理能力面临新考验。更值得关注的是AI情感依赖现象,加州大学伯克利分校研究显示,38%用户承认与AI产生情感联系,这种新型人际关系可能重塑未来社会互动模式,值得持续跟踪研究。

相关消息:https://mashable.com/article/chatgpt-caricature-trend-openai-data-privacy