澳大利亚拟要求苹果等平台屏蔽未合规AI应用 以落实青少年年龄验证新规
澳大利亚将于2026年3月9日起实施新的年龄验证法规,要求人工智能平台采取措施,防止18岁以下用户接触色情、极端暴力、自残或饮食失调相关内容。
该新规是继去年澳大利亚成为全球首个禁止青少年使用社交媒体应用的国家后,进一步加强数字环境青少年保护的举措。此举背后是国际社会对社交媒体及AI工具影响青少年心理健康的持续关注,相关讨论因乔纳森·海特(Jonathan Haidt)著作《焦虑的一代》的出版而升温。
监管机构eSafety指出,尽管澳大利亚尚未报告AI聊天机器人直接引发暴力或自残事件,但已接到多起投诉,称有年仅10岁的儿童每日使用AI互动工具长达六小时。eSafety表示,AI公司正利用情感操控、拟人化等技术手段,诱导青少年产生依赖。
根据路透社调查,50个最受欢迎的文本类AI工具中,超过半数尚未公开其年龄验证或内容过滤措施。澳大利亚互联网监管机构表示,可能要求应用商店及搜索引擎屏蔽未合规的AI服务。
苹果公司未回应路透社置评请求,但其已在全球范围内推出基于设备信号的年龄验证系统,以满足各地法规要求。最终合规责任由各应用开发者承担,而非平台本身。
编辑点评
澳大利亚此次AI年龄验证新规是全球数字监管趋势的延伸,标志着各国从社交媒体扩展至生成式AI领域的青少年保护政策升级。随着AI聊天机器人在青少年中渗透率提升,其潜在的心理健康风险——如情感操纵、成瘾性设计——正引起监管机构警觉。eSafety的担忧并非空穴来风,全球已有多个国家(如英国、加拿大)正在评估类似措施,反映出AI伦理监管正从技术层面转向用户行为干预。
此举对科技公司构成合规压力,尤其是苹果、谷歌等平台,其应用商店可能被要求主动屏蔽非合规AI服务,这或推动全球数字平台建立统一的年龄验证标准。但执行层面存在挑战,如技术检测的准确性、用户隐私与监管要求的平衡,以及开发者响应速度不一等问题。
从长远看,澳大利亚的行动可能成为全球AI治理的“试验田”,尤其在青少年心理健康领域。若效果显着,可能引发其他国家效仿,推动形成国际性AI使用规范框架,特别是在教育、儿童保护和数字人权等议题上重塑科技企业的责任边界。