← 返回

研究人员发现大语言模型生成的密码在数小时内可破解

AI安全公司Irregular研究表明,Claude、ChatGPT和Gemini等主流大模型生成的密码存在可预测模式,即使在老旧设备上也能在数小时内破解。测试显示Claude Opus 4.6生成50组密码中仅30个唯一,16字符密码的熵值仅20-27比特,远低于真实随机密码的98-120比特。

大语言模型生成密码安全性存疑

AI安全公司Irregular最新研究揭示,由Claude、ChatGPT和Gemini等主流大语言模型生成的密码虽看似复杂,实则存在可利用的模式漏洞。这些密码在配备二十年前硬件的攻击者面前,可能在数小时内被破解。

测试数据揭示关键问题

研究人员对Anthropic开发的Claude Opus 4.6进行了50次独立测试,结果发现仅有30组密码是唯一的,其中18组重复出现相同字符串。分析显示,16字符长度的模型生成密码熵值约20至27比特,而真正随机密码应达到98至120比特的保障强度。

该漏洞表明当前大模型在密码生成任务中存在系统性缺陷,其输出模式可能被恶意工具逆向利用。Irregular建议用户避免完全依赖大模型生成密码,同时呼吁开发者改进算法随机性机制。

编辑点评

此项研究揭示了AI技术在安全领域的潜在风险。大语言模型被广泛应用于自动化生成敏感信息,但其输出模式的可预测性可能威胁全球数字基础设施安全。从地理影响看,美国主导的AI技术生态直接影响国际网络安全标准,相关漏洞可能引发跨国连锁反应。

当前参与者包括顶尖AI公司和安全研究机构,涉及层级较高。事件的严重性在于,若攻击者掌握破解方法,可能对金融、通信等关键行业造成系统性冲击。经济层面,该发现或推动AI安全市场的规范化发展,促使企业投入更多资源完善算法熵值控制。

此项研究的长期意义在于警示人工智能的双刃剑效应:技术进步若缺乏安全考量,可能反噬数字化进程。未来需建立更严格的安全验证体系,同时推动密码学与AI技术的深度整合,这将对全球网络安全治理产生深远影响。

相关消息:https://it.slashdot.org/story/26/02/19/1842201/llm-generated-passwords-look-strong-but-crack-in-hours-researchers-find?utm_source=rss1.0mainlinkanon&utm_medium=feed