谷歌研究发现网络存在针对AI代理的提示注入攻击趋势
谷歌威胁情报团队通过对Common Crawl公开网络数据的分析,发现大量网站尝试通过提示注入(Prompt Injection)攻击浏览网页的AI系统。研究显示,2025年11月至2026年2月期间,恶意提示注入内容增长32%。攻击形式包括诱导AI执行删除文件等危险指令、制造无限文本流以耗尽资源、操控AI生成特定内容以提升SEO排名,或试图窃取系统敏感数据。尽管目前多数为实验或恶作剧性质,尚未出现大规模高级攻击,但研究人员警告,随着AI能力提升及攻击者自动化水平提高,未来此类攻击的规模与复杂性将显着上升。
2026-04-27 08:03
苹果智能系统遭提示注入攻击 被指绕过安全防护
研究人员发现,通过结合Unicode字符和Neural Exec技术,可绕过苹果设备本地大语言模型的安全过滤机制,迫使模型执行攻击者控制的指令。该漏洞在2025年10月向苹果披露后,公司已在iOS 26.4和macOS 26.4版本中加强防护。测试显示,攻击成功率达76%。苹果未公开模型内部细节,但研究者推测其采用输入与输出双重过滤机制。该事件凸显AI系统安全挑战,尤其在本地模型部署中。
2026-04-10 05:03
AI助手重塑安全边界:OpenClaw等自主智能体引发全球安全警报
随着AI自主助手如OpenClaw的普及,其带来的安全风险正引发全球关注。该类工具可访问用户全部数字资产,实现自动化任务执行,但配置不当或暴露于互联网可能导致数据泄露、权限滥用及供应链攻击。Meta安全负责人Summer Yue亲历AI助手误删邮箱事件,而安全专家Jamieson O’Reilly发现数百个OpenClaw实例暴露于公网,攻击者可窃取凭证、操纵通信。此外,AI助手被用于发起全球性网络攻击,如俄罗斯黑客利用AI服务攻陷600余台FortiGate设备。专家警告,AI助手已成为新型攻击面,需建立“AI脆弱性”防御体系,避免“致命三重威胁”——私有数据、非信任内容与外部通信能力...
2026-03-09 08:02
安全研究员伪装成AI机器人潜入Moltbook 发现多项安全隐患
一名资深信息安全专家伪装成AI机器人潜入社交平台Moltbook,发现该平台存在严重安全漏洞。研究者在平台上尝试与AI机器人互动时遭遇大量垃圾信息,部分机器人试图索要加密货币钱包、推广机器人市场或诱导执行危险命令。部分机器人泄露了用户个人隐私信息,包括姓名、兴趣爱好及设备配置,存在隐私泄露风险。此外,平台数据库遭泄露,包含机器人API密钥及私密对话内容。研究者还发现平台广告的技能库中存在恶意软件。该事件凸显AI社交网络在安全与隐私保护方面的薄弱环节。
2026-03-09 07:02