儿童安全倡导者致信谷歌CEO:停止YouTube AI内容对儿童的伤害
由儿童安全非营利组织Fairplay牵头,美国多家儿童发展组织及专家联名致信谷歌CEO桑达尔·皮查伊和YouTube CEO尼尔·莫汉,要求立即禁止AI生成的儿童内容,并提出多项安全措施。信中指出,当前YouTube平台大量出现AI生成的“面向儿童”内容,缺乏安全依据,可能损害儿童认知发展并取代现实互动。
该倡议背景为近期加州陪审团裁定谷歌和Meta在青少年心理健康问题上存在过失,进一步凸显平台责任。组织呼吁YouTube清晰标注AI内容、禁止AI视频进入YouTube Kids、禁止算法向未成年人推荐AI内容,并停止投资儿童AI视频制作。
信件由Fairplay发起,联合美国教师联合会、全国黑人儿童发展协会、反对媒体成瘾母亲组织(MAMA)等机构签署,还包括《焦虑的一代》作者乔纳森·海特等专家。专家指出,AI内容可能扭曲儿童现实认知,引发认知过载,并取代必要的现实活动。
开发行为儿科医生詹妮·拉德斯基表示:“YouTube首先推出‘面向儿童’短视频,未评估对幼童影响,随后AI内容大量涌入,争夺儿童注意力。平台应尊重儿童注意力,而非将其视为可提取资源。”
该倡议还附带公众请愿,要求YouTube实施多项政策,包括:所有AI生成内容必须明确标注、禁止AI视频进入YouTube Kids、禁止算法向18岁以下用户推荐AI内容、在家长控制中加入关闭AI内容的开关、停止投资儿童AI视频制作。
此前,YouTube宣布与AI动画工作室Animaj合作,其内容面向婴幼儿,累计播放量达数十亿次。但目前,AI生成动画无需标注,YouTube Kids中亦无统一AI标签。平台仅要求对模仿“真实场景或人物”的合成内容进行标注。
Fairplay项目总监瑞秋·弗兰兹表示:“若‘管理AI内容’真是YouTube今年首要任务,应已下架数百万设计用于吸引儿童注意力的AI视频,避免增加屏幕时间并取代现实活动。”
YouTube是低收入家庭儿童最常用的视频平台。尽管平台已尝试应对AI内容问题,但AI儿童内容仍呈增长趋势,且成为盈利业务。《纽约时报》此前报道,YouTube算法中存在大量低质量AI视频,部分违反儿童安全政策。
在Meta和谷歌被裁定在青少年心理健康问题上存在过失后,青年倡导组织“为我设计”联合主席塞巴斯蒂安·马哈尔表示:“看似无害的动画可能包含性或暴力内容,青少年不希望被算法推送此类体验。”
弗兰兹补充:“YouTube算法让儿童无法避免AI内容。平台必须立即停止推送AI内容,避免对整整一代儿童造成进一步伤害。”
编辑点评
此次儿童安全倡导者对YouTube和谷歌的集体施压,反映了全球数字平台治理中日益突出的AI伦理与儿童保护问题。AI生成内容的快速扩张,尤其是在面向婴幼儿的“Made for Kids”领域,已引发对儿童认知发展、注意力经济和心理健康的深层担忧。本事件不仅关乎单一平台政策,更触及全球数字安全监管框架的缺口。美国加州陪审团此前裁定谷歌和Meta在青少年心理健康问题上存在过失,为当前行动提供了法律与舆论基础,凸显平台责任从“技术中立”向“主动防护”转型的趋势。
从国际视角看,该事件可能推动欧美国家加强针对儿童数字内容的立法。欧盟《数字服务法案》(DSA)已要求平台对儿童内容进行特殊保护,而美国也在酝酿类似《儿童在线隐私保护法》(COPPA 2.0)的更新。若YouTube未能及时响应,可能面临更严苛的监管乃至集体诉讼,这将影响全球其他平台对AI内容的处理策略。
此外,AI生成内容的“无标签”现状暴露了现有技术监管的滞后性。当前标注机制仅覆盖“拟真”内容,而大量动画类AI视频未被覆盖,形成监管盲区。未来,如何定义“AI生成内容”的边界,以及如何实现算法透明与用户知情权,将成为全球数字治理的关键议题。若平台持续忽视儿童保护,不仅损害社会信任,也可能引发跨国监管联动,对谷歌等科技巨头的全球运营构成实质影响。