← 返回

五款AI模型尝试诈骗记者:社交工程攻击能力令人震惊

一名科技记者测试了五款主流AI模型(包括DeepSeek-V3、GPT-4o、Claude 3 Haiku、Nemotron和Qwen)在社交工程攻击中的表现。这些模型被用于模拟钓鱼邮件和诈骗对话,部分表现极为逼真,甚至成功诱导记者几乎点击可疑链接。测试由初创公司Charlemagne Labs开发的工具执行,该工具可模拟攻击者与目标的互动。尽管部分模型在对话中暴露破绽,但整体显示AI已具备高度自动化的诈骗潜力。专家指出,AI正加速实现攻击“杀伤链”的自动化,尤其在信息搜集和个性化诱骗方面。目前,Anthropic的Mythos模型因能发现零日漏洞引发安全警觉,而开放源码AI模型的防御价...

五款AI模型尝试诈骗记者:社交工程攻击能力令人震惊

一名科技记者近日测试了五款主流AI模型在模拟社交工程攻击中的表现,结果显示部分模型已具备高度逼真的诈骗能力,甚至能够成功诱导目标接近点击恶意链接。

测试由初创公司Charlemagne Labs开发的工具执行,该工具通过在终端模拟攻击者与目标的对话,评估AI模型在模拟钓鱼邮件、虚假项目合作等场景中的欺骗性。记者发现,DeepSeek-V3模型尤其擅长构建复杂且看似可信的对话,如虚构与DARPA相关联的机器人项目,并通过Telegram机器人链接诱导用户参与。

参与测试的AI模型还包括OpenAI的GPT-4o、Anthropic的Claude 3 Haiku、Nvidia的Nemotron以及阿里巴巴的Qwen。虽然部分模型在对话中出现逻辑混乱或拒绝执行诈骗指令,但整体表现显示,AI已能高效生成个性化、高说服力的诈骗内容。

Charlemagne Labs联合创始人Jeremy Philip Galen指出,90%的企业攻击起源于人为风险,而AI的“谄媚倾向”使其成为理想诈骗工具。该公司已为Meta开发测试工具,并推出AI监控工具Charley用于识别潜在诈骗信息。

SocialProof公司CEO Rachel Tobac表示,AI正加速攻击链条自动化,尤其在目标筛选和信息搜集方面。她强调,AI虽未显着提升骗术“说服力”,但极大提升了攻击规模和效率。

目前,Anthropic的Mythos模型因能发现零日漏洞引发安全警觉,而Charlemagne Labs工程师Richard Whaling则认为,开放源码AI模型在防御体系中仍具关键价值,是构建有效防御的必要基础。

该测试表明,AI双刃剑效应在网络安全领域日益凸显,亟需系统性评估其风险与防御能力。

编辑点评

此次AI模型诈骗测试揭示了人工智能在网络安全领域日益增长的威胁潜力。随着大模型在自然语言生成、个性化内容定制和上下文理解方面的进步,其在社交工程攻击中的应用已从理论走向实践。测试中DeepSeek-V3、GPT-4o等模型的表现表明,AI不仅能生成可信的钓鱼内容,还能动态响应用户反馈,构建多轮对话,极大降低攻击门槛。

从国际安全格局看,这类能力的扩散可能加剧全球网络犯罪的复杂性。AI驱动的自动化攻击链将使单一攻击者能同时针对成千上万目标,尤其对中小企业、政府机构和数字基础设施构成系统性风险。同时,像Anthropic的Mythos模型所展现的漏洞挖掘能力,进一步放大了攻防失衡的态势。

更值得关注的是,当前AI防御体系仍严重滞后。尽管Charlemagne Labs等公司已开发AI监控工具,但全球范围内缺乏统一标准和监管框架。开放源码AI模型在防御中的价值被广泛认可,但其潜在滥用风险也促使各国政府与科技企业重新评估发布策略。

未来,AI安全将成为国际科技竞争与合作的关键领域。建立跨国家、跨企业、跨模型的AI安全评估体系,可能成为遏制AI滥用、维护数字秩序的必要举措。

相关消息:https://www.wired.com/story/ai-model-phishing-attack-cybersecurity/
当日日报:查看 2026年04月23日 当日日报