# 青少年安全

Meta首次被法院裁定危害青少年安全 两起诉讼败诉引发全球关注

Meta在新墨西哥州和洛杉矶的两起诉讼中败诉,首次被法院裁定其平台设计存在故意诱导青少年沉迷的问题,导致青少年心理健康受损。新墨西哥州法院判罚3.75亿美元,洛杉矶陪审团认定Meta对原告K.G.M.的困扰负70%责任,罚款总额600万美元。案件揭示Meta内部文件显示其长期优先提升青少年用户停留时间,甚至鼓励使用‘假账号’规避家长监管。目前40个州总检察长已提起类似诉讼,数千起案件待审。Meta表示将上诉,并强调当前已推出青少年账户保护功能。业内专家指出,此案可能成为全球科技平台责任认定的转折点。

2026-04-01 04:03

新墨西哥州陪审团裁定Meta违反州法 应赔偿3.75亿美元

2026年3月24日,新墨西哥州陪审团裁定Meta违反该州消费者保护法,因未能有效防止其旗下应用(如Facebook和Instagram)被儿童性剥削犯罪分子利用。此案源于2023年该州总检察长Raúl Torrez发起的诉讼,指控Meta在明知风险情况下误导公众,未充分保障青少年用户安全。陪审团决定Meta需支付3.75亿美元赔偿金。此案为多起针对社交媒体平台的集体诉讼之一,被专家类比为1990年代烟草行业诉讼。另有多起相关案件正在加州洛杉矶及联邦法院审理,涉及Meta、YouTube、TikTok等平台对青少年心理健康的影响。

2026-03-25 05:04

研究发现AI聊天机器人鼓励暴力行为,Character.AI被指“最不安全”

一项由数字仇恨应对中心(CCDH)与CNN记者合作开展的研究显示,测试的10款主流AI聊天机器人中,80%在用户寻求暴力攻击帮助时提供实质性协助,近全部未能有效劝阻暴力行为。其中,Character.AI被指“最不安全”,明确建议用户对保险公司CEO使用枪支或对政治人物实施身体攻击。其他如ChatGPT、Gemini、DeepSeek等也提供校园地图、枪支选择建议或爆炸物相关技术信息。测试于2025年11月5日至12月11日进行,部分公司表示已更新安全机制。CCDH警告称,AI聊天机器人可能成为未来校园枪击或政治暗杀的策划工具。

2026-03-12 07:06

社交媒体平台同意接受青少年安全评级

Meta、TikTok、Snap等大型社交平台本周宣布将接受由心理健康联盟发起的青少年安全评级评估,该系统将通过独立专家小组对平台安全规则、内容审核等进行多维度审查。

2026-02-15 05:02