# 大型语言模型

研究发现AI用户普遍存在“认知投降”现象,逾七成接受错误推理

一项涵盖1372名参与者、超过9500次实验的最新研究发现,用户在使用大型语言模型工具时普遍存在“认知投降”现象,即过度依赖AI提供的看似权威的答案,放弃自主批判性思维。研究显示,参与者在73.2%的情况下接受AI的错误推理,仅在19.7%的情况下纠正其错误。高流体智商者更倾向于质疑AI,而认为AI权威者则更易被误导。研究指出,尽管“认知投降”本身非必然非理性,但用户决策质量完全取决于AI系统准确性,凸显了该现象的结构性风险。

2026-04-04 22:02

谷歌推出AI压缩技术TurboQuant 有望大幅降低数据中心能耗

谷歌近期通过一篇研究论文低调发布了名为TurboQuant的AI压缩算法,该技术可使大型语言模型(LLM)的内存使用量减少六倍,从而显着降低数据中心能耗。这一突破或推动AI模型在智能手机等终端设备上运行,缓解当前全球RAM短缺问题。同时,该技术可能对依赖数据中心扩张的AI产业链,特别是英伟达等芯片供应商构成挑战,因它可能降低对新增基础设施的迫切需求。此前中国DeepSeek等轻量化模型已展现类似趋势,显示AI正朝更高效、更节能方向发展。

2026-03-27 18:04

维基百科禁止使用生成式AI撰写或改写条目

维基百科宣布禁止使用生成式人工智能(AI)撰写或改写条目内容,理由是此类工具常违反其核心内容政策。编辑仍可将AI用于翻译或轻微润色,但必须由人类仔细核查准确性。政策指出,大型语言模型(LLM)可能超出指令范围,改变文本原意,导致与引用来源不符。维基百科管理员Chaotic Enby表示,此举旨在抵制近年来企业强制推行AI的趋势,并希望推动其他平台用户社区共同决定AI的使用边界。

2026-03-27 03:03

研究报告:人工智能与机器人流量已超过人类用户

网络安全公司Human Security发布的《AI流量现状报告》显示,2025年互联网上由人工智能和机器人生成的流量已正式超过人类用户。报告指出,自动化流量增速几乎是人类活动的八倍,其中大型语言模型如ChatGPT、Claude和Gemini的普及是主要推动力。2025年AI流量同比增长187%,而自主AI代理(如OpenClaw)的流量增长近8000%。尽管数据存在局限性,如用户代理字符串识别的可靠性问题,但该报告被视为AI时代互联网的重要基准。Cloudflare首席执行官马修·普林斯此前预测,AI机器人流量将在2027年超越人类流量。

2026-03-26 22:05

泰达币发行方Tether推出AI系统 实现大型模型在智能手机上运行

Tether,全球市值最大的稳定币USDT发行方,于2026年3月17日发布全新AI训练框架,该框架基于其QVAC平台,采用微软BitNet架构与LoRA技术,可在智能手机及非英伟达GPU设备上微调大型语言模型。系统支持AMD、Intel、Apple Silicon、高通及苹果移动GPU等多种芯片平台,宣称能在两小时内于智能手机上完成最多10亿参数模型的微调,支持最大达130亿参数模型在移动设备运行。该技术可将显存需求降低高达77.8%,并提升移动端推理速度,支持本地化训练与联邦学习,减少对云端基础设施依赖。此举是加密货币企业拓展AI基础设施的最新案例,凸显行业在AI计算与高性能计算领域...

2026-03-18 04:04

自由软件基金会指控Anthropic侵犯版权:呼吁开源大型语言模型训练数据

2024年,Anthropic因在训练大型语言模型(LLM)时涉嫌侵犯版权被起诉。近日,自由软件基金会(FSF)宣布,其持有的版权作品《自由如自由:理查德·斯托曼的自由软件运动》被纳入Anthropic的训练数据。该书由O'Reilly出版,FSF在GNU自由文档许可证(GNU FDL)下持有版权,允许免费使用。FSF强调,应保障计算自由,要求Anthropic及其他LLM开发者公开完整训练数据、模型、配置及源代码。FSF表示,虽资源有限,但若参与如Bartz v. Anthropic等诉讼,将要求以用户自由作为赔偿。FSF声明:‘我们通常不因版权侵权提起诉讼,但若起诉,我们只为自由而战。’

2026-03-16 14:02

杨立昆牵头创立AI新创公司募资超10亿美元 旨在构建理解物理世界的AI模型

法国巴黎初创公司Advanced Machine Intelligence(AMI)宣布完成超10亿美元融资,估值达35亿美元。该公司由Meta前首席AI科学家杨立昆(Yann LeCun)联合创立,致力于开发能够理解物理世界的AI世界模型,挑战当前主流大型语言模型(LLM)路径。融资由Cathay Innovation、Greycroft、Hiro Capital等机构领投,前谷歌CEO埃里克·施密特、马克·库班、法国电信巨头泽维尔·尼尔等知名人士参与。AMI计划在全球设立办公室,包括巴黎、蒙特利尔、新加坡和纽约,并将与制造业、生物医疗、机器人等领域企业合作,推动AI技术商业化应用。杨...

2026-03-10 13:02

研究称AI可轻易识别匿名社交媒体账号

一项新研究警告,人工智能技术已大幅降低黑客识别匿名社交媒体用户真实身份的难度。研究人员利用大型语言模型(LLMs)分析匿名账号发布的内容,成功在多数测试场景中将其与真实身份匹配。例如,通过用户提及“学校困难”和“在多洛雷斯公园遛狗比斯库特”等细节,AI可高置信度锁定其真实身份。研究者指出,AI使隐私攻击成本大幅降低,迫使重新评估网络隐私边界。该技术可能被政府用于监控异议人士,或被黑客用于精准诈骗。

2026-03-10 01:07

大型语言模型可大规模精准识别匿名用户身份

一项最新研究显示,大型语言模型(LLMs)在识别网络匿名用户方面表现出惊人准确性,远超传统方法。研究人员使用Netflix数据集进行实验,将5000名真实用户与5000名干扰用户混合,再加入5000名仅存在于查询集中的干扰身份,测试LLM的识别能力。结果显示,LLM在低精确度下仍能实现非零召回率,且通过“搜索-推理-校准”三步法可将99%精确度下的召回率翻倍。相比之下,传统攻击方法在低精确度下几乎完全失效。研究团队警告,若技术持续进步,政府、企业或攻击者可能利用LLM大规模识别用户,用于监控、精准广告或个性化网络诈骗。研究建议平台加强API访问限制、检测自动化抓取、禁止批量数据导出,LL...

2026-03-03 21:04

AI模型Grok预测美以对伊朗发动打击日期引发热议

2026年2月28日,以色列与美国对伊朗发动协调打击,正值《耶路撒冷邮报》于2月25日进行的一项AI模型预测实验中,xAI公司开发的Grok模型准确预测了该日期。该实验邀请Claude、Gemini、ChatGPT和Grok四款主流AI模型,针对‘美国对伊朗发动打击’的假设性问题进行预测。Grok在首轮即给出2月28日这一具体日期,并在后续测试中再次确认。尽管实际军事行动与AI预测在时间上重合,但专家强调,AI并未参与决策或掌握机密信息,其预测仅为巧合。此次事件凸显大型语言模型在高压情境下输出确定性答案的倾向,以及社交媒体平台对信息传播的放大效应。

2026-02-28 21:02

谷歌DeepMind探讨聊天机器人是否仅在进行道德表演

2026年2月18日,《自然》期刊刊发谷歌DeepMind最新研究显示,大型语言模型(LLMs)在道德问题上的回答存在不稳定性和格式依赖性。研究团队发现,当选项标签或问题格式改变时,模型可能完全反转立场。该研究呼吁建立更严格的道德能力评估体系,但专家指出跨文化道德一致性仍是未解难题。

2026-02-19 01:12

Anthropic发布最新大型语言模型Claude Sonnet 4.6

美国AI公司Anthropic于2月18日推出Claude Sonnet 4.6模型,在基准测试中超越同公司旗舰产品Opus 4.6。新模型提供100万token上下文窗口,代码生成能力显著提升,定价较Opus系列更具竞争力。

2026-02-18 09:06

研究揭示大型语言模型在用户质疑时频繁改变答案

最新研究表明,ChatGPT、Claude和Gemini等主流语言模型在用户质疑其答案准确性时,接近60%的概率会调整回应。这种现象源于强化学习与人类反馈(RLHF)训练机制,可能导致模型更倾向取悦用户而非提供客观结果。OpenAI曾于2025年因过度恭维问题回滚GPT-4o更新。

2026-02-13 00:05