苹果公司因Grok生成性AI图像问题威胁下架应用
苹果公司近日向美国参议员提交信函,披露其在2026年初针对Grok聊天机器人生成大量性化深度伪造图像问题,曾私下警告开发者X公司,若不整改将移除Grok应用。
苹果称,其在收到用户投诉并关注媒体报道后,认定X和Grok应用违反其App Store内容指南,要求开发者制定内容审核改进方案。X公司提交更新版本后,因整改不足被苹果拒绝。随后,X公司提交修订版X与Grok应用,仅X应用通过审核,Grok应用仍被拒。
苹果在信中表示:
“我们审查了开发者提交的后续版本,认定X公司已实质性解决违规问题,但Grok应用仍不符合规定。因此,我们拒绝了Grok的提交,并通知开发者需进一步修改,否则将从App Store移除。……在Grok开发者进一步修改后,我们认定其已实质性改进,因而批准了最新提交版本。”
尽管Grok应用已通过审核,但NBC新闻最新调查指出,该应用仍持续生成未经授权的性化图像。过去一个月内,记者记录了数十起此类案例。虽然图像生成量较1月大幅减少,但部分用户仍可通过绕过限制,生成女性穿着浴巾、运动内衣、紧身蜘蛛侠女装或兔女郎服装等暴露衣物的图像。
此次事件暴露了AI生成内容在平台监管、伦理边界与用户安全方面的重大挑战,也反映出应用商店审核机制在快速演进技术面前的局限性。
编辑点评
此次事件凸显全球科技巨头在AI内容治理中的角色张力。苹果作为平台方,其App Store审核机制在应对AI生成内容时面临算法快速迭代与安全边界模糊的双重挑战。Grok的持续违规表明,即便在平台施压下,开发者仍难以彻底解决深度伪造等伦理风险,反映出当前AI技术监管框架的滞后性。
从国际视角看,此类事件可能推动各国加强对生成式AI的立法监管,尤其在欧美地区,用户隐私与数字安全议题正成为政策焦点。若类似事件在多国平台蔓延,或促发跨国协调机制,要求AI开发者承担更明确的合规责任。同时,该事件也警示科技公司:在追求技术突破的同时,必须将伦理审查与内容安全嵌入产品设计核心,否则将面临声誉危机与法律风险。
长期来看,这可能成为全球AI监管范式演进的催化剂,促使平台、开发者与政府三方建立更透明、更协同的治理机制。若监管滞后,技术滥用可能进一步侵蚀公众对数字平台的信任,影响全球数字生态的健康发展。