微软提出新方案应对AI内容真实性挑战
微软日前向MIT Technology Review提交了一项AI内容验证技术方案,主张通过数字水印、来源追踪和数学签名等技术手段区分真实与AI生成内容。该方案由微软AI安全研究团队制定,评估了60种技术组合在不同篡改场景下的可靠性,但公司尚未承诺在Copilot、Azure等自有平台全面应用。
技术总监埃里克·霍维茨表示,研究源于加州AI透明法案等立法推动及AI生成技术的快速发展。加州法案要求科技公司明确标注AI生成内容,将于2026年8月生效。但霍维茨拒绝透露微软是否会执行自身建议,仅称工程团队已基于报告调整产品路线。
加州大学伯克利分校教授汉尼·法里德指出,若行业采纳该方案,将大幅增加伪造内容的识别难度。但监管实施可能受阻,去年对Instagram等平台的审计显示仅30%AI生成内容被正确标注。美国政府近期通过DOGE取消反虚假信息补助,且特朗普政府曾使用AI生成内容进行宣传。
微软同时担忧验证技术应用不当可能引发新问题。研究人员警告,若标签系统仓促推出或存在误判,公众信任度可能崩塌。此外,部分篡改内容仅修改少量像素,现有技术或难以精准定位。法里德认为,尽管无法彻底解决问题,但该方案能有效遏制大量误导信息。
政策与技术博弈
加州法案被视为美国测试AI验证技术的首个重要节点。但特朗普政府去年以「对产业造成负担」为由发布行政令限制州级AI监管。微软在加州法案制定期间曾积极游说,使披露要求更「现实可行」。
法里德强调,科技巨头的商业利益可能影响技术落实。他指出若平台认为AI标签会降低用户互动,必然抵制实施。当前Meta、谷歌等已宣布采用AI标签,但实际执行比例仅达三成。
编辑点评
微软的AI内容验证方案在技术层面具有开创性,但其未承诺自身平台实施的矛盾态度,揭示了科技企业的监管博弈本质。国际社会对AI生成内容的恐慌与立法需求正同步升级,欧盟AI法案及印度等国监管框架均要求强制披露。然而,技术验证的局限性——无法判断内容真实性仅能识别篡改痕迹——与用户认知偏差形成双重挑战。当70%的AI内容未被正确标注时,科技企业的技术承诺与商业利益间的张力可能持续削弱监管效果。更值得警惕的是,若美国联邦政府持续阻挠州级AI立法,全球AI治理或将陷入「技术先行,监管滞后」的被动局面。