近日,知乎“直答”AI搜索功能升级引发关注。不少人期望,这一国内首个支持答案全链路溯源的AI问答产品,真的能治治AI时不时“一本正经地胡说八道”的毛病。

AI幻觉,是指AI在交互时生成与事实不符、缺乏依据的内容。比如,当你给美食AI助手上传一张番茄炒蛋照片,得到的却是“这是一道典型的意大利菜——马苏里拉奶酪配番茄沙拉,建议搭配红酒享用”的反馈。这种源于模型训练数据局限和算法缺陷下的必然,已经严重影响了AI输出信息的可靠性。

无止境的“拼图游戏”

AI为什么会产生“幻觉”呢?

其实,这个过程就像孩童在昏暗的房间里拼凑万花筒一样。当开发者将海量的数据输入到AI系统中时,这些数据就像散落的彩色玻璃碎片一样,杂乱无章。而AI通过深度学习构建认知框架的过程,本质上就是在进行一场无止境的“拼图游戏”。

在自然语言处理领域,像GPT这样的系列模型,平均每个词语的生成都要经历数百亿次的概率计算。这种基于概率的创作机制,虽然让AI能够生成流畅自然的文本,但也时常让它在知识的边界模糊地带“自由发挥”。就像人类在不自觉中会填补视觉盲区一样,AI也会用统计学上认为“合理”的内容来填补数据的空白。

值得玩味的是,人类与AI的互动本身也在塑造这种“幻觉”。当用户反复追问不存在的事物时,AI就像被观众要求不断加戏的即兴演员一样,最终呈现的“作品”已然超出了原始剧本的范围。这种现象在心理学上被称为“确认偏误的算法镜像”,人类的执着提问与AI的“讨好性”回应形成了闭环,共同编织出了虚实交错的叙事。

应用中的“蝴蝶效应”

AI产生“幻觉”不可避免,在现实应用中也可能带来一系列的问题。

有医院就曾接诊过一起特殊病例,AI辅助诊断系统将这一普通的皮肤过敏识别为“未知恶性病变”,只因为训练数据中相似的图像多与重症病例关联。这个事件暴露出“AI幻觉”可能带来的“蝴蝶效应”——在医疗、司法、金融等领域,一个算法的偏差就可能引发连锁反应,造成严重的后果。

教育领域也同样面临着挑战。有高校教师发现,学生用AI生成的论文中频繁出现“19世纪量子力学奠基人”等时空错乱的概念。这些“学术幻觉”不仅折射出了知识传播的失真风险,更揭示了新一代学生面临的认知危机:当AI成为知识中介时,我们该如何守护真相的边界?

保持“数字怀疑”意识

我们该如何对抗AI的“幻觉”呢?

第一道防线其实就藏在古老的人类智慧中。硅谷某科技公司就颇具启示性地开展了“红队演习”:他们专门雇佣古典文学学者来挑战AI系统,用荷马史诗中的隐喻陷阱来检验机器的逻辑连贯性。这种人文与科技的碰撞,意外地成为校准AI认知的重要方式。

对于普罗大众而言,我们更需要建立起“数字怀疑”的意识。一位母亲发现育儿AI建议“给婴儿饮用稀释蜂蜜水”时,她没有盲从,而是查阅了权威资料,避免了可能引发肉毒杆菌中毒的风险。这种保持清醒的交互态度,正是人机协作时代的生存法则。

站在文明演进的长河中回望,从原始壁画的夸张变形到AI的算法幻想,人类始终在与“非真实”共舞。当大模型偶尔在对话中插入莎士比亚风格的十四行诗时,当文生图工具绘出三只眼睛的蒙娜丽莎时,这些数字世界的“庄周梦蝶”,既是技术局限性的注脚,也暗藏着突破认知边界的可能。在亦真亦幻的辩证中,人类与AI共同谱写的,或许正是这个时代最动人的“科幻现实主义”篇章。

(作者张旅阳 系中国计算机学会科学普及工作委员会委员)

免责声明:凡本站注明稿件来源为“科普中国”、科普类微信公众号及互联网的文章,其转载目的在于传递更多信息并促进科学普及,但并不代表本站赞同其观点或对其内容的真实性、准确性负责,亦不构成任何形式的建议。若需转载本网站所提供的内容,请确保完整转载,并明确注明来源及原作者姓名。未经许可,转载内容不得用于任何商业目的。任何单位或个人若认为本网站或其链接内容涉嫌侵犯其合法权益,请及时向本网站提交书面反馈,并提供身份证明、权属证明及详细的侵权情况说明。本网站在收到上述法律文件后,将尽快处理并移除涉嫌侵权的内容或链接。