
如何走出AI知识幻觉 与“致幻”大模型共处之道

随着人工智能技术的发展,人们在查询资料、处理数据时越来越依赖AI。然而,这种依赖有时会带来误导。AI可能会编造法律条文、权威观点和数据成果,提供虚假的理论依据,导致知识幻觉。如今,AI已成为日常生活的一部分。我们能否像治病一样去除它带来的“知识幻觉”?如何规避这些风险,与AI和谐共处?
所谓AI“知识幻觉”,是指大模型生成的内容看似真实但实际错误或不存在。例如,有人发现DeepSeek在回答工程问题时引用了错误的规范条款,甚至推荐了一些并不存在的书籍。浙江大学人工智能研究所所长吴飞指出,这就是AI生成的“幻觉”。
清华大学沈阳团队的一项研究显示,多个热门大模型在事实性测试中的幻觉率超过20%。比如,面对关于《水浒传》的问题,一些大模型给出了错误答案。这表明,即使是科学家也对AI的可靠性感到头疼。
AI的“知识幻觉”难以避免。香港科技大学的研究总结了多种原因,包括训练数据集中的错误、过时或缺漏信息。北京大学智能学院院长朱松纯强调,大模型不具备从词语到现实世界的联结能力,因此无法实现真正的智能。它们更多是在纯符号空间中进行排列组合,缺乏对人类真实体验的理解。
面对这种情况,科大讯飞董事长刘庆峰建议利用在线实时搜索和专业数据库动态接入来矫正大模型的回答。北京协和医院与中国科学院自动化研究所合作研发的大模型则注重动态更新权威来源知识和增加多渠道溯源机制。专家还建议普通用户交叉比对不同模型的答案以提高准确性。
不过,“知识幻觉”也有其积极的一面。360集团创始人周鸿祎认为,这种“幻觉”是实现通用人工智能的重要因素,可以激发创造力。沈阳也表示,AI的“幻觉”可能成为突破思维定式的引擎,为游戏和文学创作带来新的灵感。
了解“知识幻觉”的本质后,我们可以更加明智地使用AI,并引导其发挥积极作用。尽管存在挑战,但与AI共处的时光依然充满希望。