AI的幻觉

作者: 邱元阳

AI的幻觉0

qiuyuanyang @ 126.com

2023年5月,纽约联邦法院上演了戏剧性的一幕:律师提交的法律文书包含了6个由ChatGPT杜撰的法律判例。这个标志性事件揭开了人工智能发展历程中的重要课题——A幻觉现象。

所谓A幻觉(AHallucination),指的是人工智能系统在生成内容时,产生的看似合理但实际上错误、虚构或不存在的信息。这些内容可能表现为编造事实、虚构数据、引用不存在的文献,甚至创造出逻辑矛盾的描述。

A幻觉在主流的各种问答式A中都有表现。当初ChatGPT震撼问世时,就曾出现过逻辑清晰地证明9是质数的错误,而被马斯克称为“地球上最聪明的A”的Grok3也在“比较9.9和9.11大小”时出错。当然,在这个经典A陷阱面前翻车的还有大名鼎鼎的ChatGPT—4o和Gemini。“人类认为最容易的,恰是A最难实现的。”日常问题也同样面临A的幻觉:我向A询问一个不出名的地点如何到达,查阅不到准确资料的A竟然编造虚假信息,并信誓旦旦地为我导航;当用一个截图向三个A询问一个关于图形旋转的几何问题时,其中一个给出了错误结论,并在我的反驳中坚持已见,我不得不拿出另外两个A的正确解法给它,它才承认自己的错误,并主动分析出错的原因。当我们注视着A聊天界面流畅输出的文字时,是否意识到在这些看似逻辑严密的回答中,可能暗藏着机器认知的海市蜃楼呢?

图灵奖得主杨立昆今年3月在美国联合数学会议上尖锐地指出:“自回归大语言模型(LLM)注定淘汰!用预测下一个词的方法造AG,就像用算盘登陆火星!”自回归模型的核心逻辑是根据前文预测下一个词(Token),这种机制的致命缺陷就是,每个预测的微小误差都会随着文本生成呈指数级爆炸。深度神经网络的数十亿参数编织着独特的认知图景,Transformer架构的自注意力机制将训练数据中的语义碎片编织成连贯文本,在赋予A强大创造力的同时,也埋下了幻觉的种子:当上下文关联超过模型理解阈值时,系统会启动概率补偿机制,用统计学最优解填补认知空白。

大语言模型通过上千亿Token的语料库学习人类表达范式,但数据中的偏见、错误与时代局限性都被编码进模型参数,形成认知烙印。若训练数据中类似问题未被充分覆盖或标注,模型可能无法正确归纳,从而强行拼图,在语义补全冲动下制造出逻辑自洽的合理虚构。这也反映了当前A模型的一个局限性,即依赖大量数据和特定训练,而缺乏真正的常识推理能力。类似问题还有A生成人物图片时经常出现的6根手指。

在医疗咨询场景中,某A系统曾给出“糖尿病可用胰岛素鼻腔喷雾治疗”的虚假方案,这种专业领域的幻觉输出可能造成严重后果。教育领域同样面临挑战,如学生提交的A生成论文中频繁出现“幽灵引用”,这种现象会摧毁知识传播的信任基础,增加A普及的隐性社会代价。

为了对抗A幻觉,众多A公司正努力构建可信A的进化图景:DeepSeek的混合专家系统(MoE)通过动态路由机制,将问题分配给专业子模型处理,相比传统Transformer架构可将事实错误率降低 40 % ;OpenAI的“过程监督”系统对推理链进行逐步验证,这种培养式训练使GPT-4的逻辑严谨性提升3倍;谷歌的PaL-X模型通过视频帧序列分析验证文本描述的真实性,这种跨模态纠错机制将幻觉发生率压缩至 0 . 3 % 以下;IBM的Neuro-SymbolicA将深度学习与知识推理分离又整合,在保持创造力的同时实现逻辑可验证。

在这场人机共生的认知革命中,A迷之自信的幻觉正是技术黎明期的成长阵痛,标记着技术进化的必经阶段,其最终将走向更可信、更具人文关怀的人工智能未来。



本文为全文原貌 未安装PDF浏览器用户请先下载安装
原版页码:xxjy20250908.pd原版全文

经典小说推荐

杂志订阅