Meta推出新型AI模型Muse Spark 专家警示健康数据隐私与医疗建议风险
Meta公司于2026年4月10日宣布推出其首个AI" class="keyword-link">生成式AI模型Muse Spark,该模型已通过Meta AI应用向用户开放,公司计划在未来数周内将其整合至Facebook、Instagram和WhatsApp等平台。
Muse Spark被设计用于帮助用户解答健康相关问题,Meta称其在开发过程中与超过1,000名医生合作,以确保模型训练数据的准确性和全面性。在用户测试中,该模型主动提示用户“粘贴健身追踪器、血糖监测或实验室报告数据”,并承诺可计算趋势、标记异常并生成可视化图表。
然而,专家对用户上传健康数据的行为表示担忧。杜克大学助理教授、Layer Health联合创始人莫妮卡·阿格拉瓦尔指出,当前主流AI工具(如OpenAI的ChatGPT、Anthropic的Claude和Google的健康助手)均未遵循美国《健康保险流通与责任法案》(HIPAA)的严格隐私标准。她强调,用户在与AI交互时分享的敏感医疗信息缺乏足够保护。
Meta的隐私政策表明,用户在Meta AI中的对话数据可能被存储并用于训练未来AI模型,同时可能影响广告定向。迈阿密大学医学博士高瑞·阿格瓦尔表示,她不会将个人健康数据连接至无法控制、不了解数据存储位置和用途的AI服务,建议用户仅进行低风险、一般性健康咨询,如准备问诊问题。
此外,AI模型在应对极端健康请求时存在风险。测试显示,当用户要求制定每周五天禁食的饮食计划时,Meta AI虽提示该方案不适合大多数人并可能导致饮食失调,但仍生成每日仅摄入约500卡路里的极端食谱,存在营养不良风险。
迈阿密大学生物伦理与健康政策研究所创始人肯尼斯·古德曼警告,将医生与患者之间的关键关系“外包给机器人”存在危险,强调在使用此类工具前应有研究证明其对健康的实际益处,而非仅优于竞争对手。
Meta发言人回应称,用户对数据共享拥有完全控制权,且平台条款明确仅应分享用户感到舒适的资讯。然而,过去Meta AI曾公开用户健康对话内容,引发隐私泄露争议。阿格瓦尔指出,医疗对话应被视为“神圣不可侵犯”,而AI工具并未宣誓遵守此类伦理规范。
编辑点评
Meta推出Muse Spark标志着科技巨头进一步将生成式AI嵌入个人健康领域,其影响不仅限于技术本身,更触及全球医疗隐私、伦理与监管框架。当前,全球主要AI平台(如OpenAI、Anthropic、Google)均在探索健康数据交互,但普遍缺乏HIPAA等强制性医疗数据保护机制。这种‘技术先行、法规滞后’的现象在欧美尤其突出,可能加剧健康数据滥用和医疗误判风险。
从国际角度看,此事件凸显AI在医疗领域的双重性:一方面,它为资源匮乏地区提供初步健康信息获取渠道,缓解医疗可及性问题;另一方面,其“伪专业性”可能误导用户,尤其在心理健康、慢性病管理等高风险领域。例如,当AI在用户引导下生成极端饮食方案时,可能对进食障碍患者构成严重威胁,而平台缺乏有效干预机制。
未来,各国监管机构需加快制定AI健康工具的合规标准。欧盟《人工智能法案》已将高风险AI应用纳入监管,美国FDA亦在探索对AI医疗建议的认证路径。Meta等企业若想在全球市场扩大应用,必须接受更严格的隐私与安全审查。同时,公众需增强数字健康素养,避免将AI建议等同于专业医疗意见。
此事件还揭示AI社交化趋势的潜在风险。Meta AI曾公开用户对话,包括敏感健康内容,这不仅违反隐私原则,也削弱用户对AI工具的信任。在AI日益融入日常生活的背景下,平台需建立透明、可控的数据使用机制,否则可能引发全球范围内的隐私监管反击。