
小心AI在胡说八道 警惕虚假信息误导

小心AI在胡说八道!2025年2月,中国人民大学教授李婷公开辟谣了一组数据——“中国80后累计死亡率为5.20%”。在社交媒体上,许多“80后”因这组数据感到惋惜。自媒体声称:“截至2024年末,80后的死亡率已经超过70后,相当于每20个80后中,就有1人已经去世。”
李婷教授在接受采访时表示,这一说法明显错误,因为专业统计数据中的死亡率通常用千分率表示,而不是百分率。她还指出,国家统计局并未公布2024年的死亡率,也不会根据“80后”、“90后”等分段公布死亡人数,因此这一说法毫无数据支撑。
关于虚假数据的来源,李婷认为可能源于AI大模型出错。她在AI大模型中输入问题:“50后、60后、70后、80后,这几代人的死亡率分别是多少”,大模型回答:“80后现存2.12亿,存活率94.8%,死亡率5.2%。”这种无中生有的能力被称为“幻觉”,即AI在遇到不熟悉的问题时编造难以辨明真假的细节。
新浪新技术研发负责人张俊林提到,随着各个领域加强对AI的接入,AI幻觉成为需要重视的问题,但目前尚未找到根除办法。清华大学长聘副教授陈天昊也表示,对于学生等特殊人群来说,大模型幻觉问题带来的风险更大。例如,小学生可能和家长一起使用大模型学习知识,但大模型产生的幻觉可能会产生误导。
科普作家河森堡在微博中分享了他使用ChatGPT的经历。他在让ChatGPT介绍文物“青铜利簋”时,发现其将西周文物的来历编造成商王帝乙祭祀父亲帝丁所铸,并且标明了错误的文献来源。在豆瓣,陀思妥耶夫斯基的书迷也发现AI在使用联网搜索功能时不懂装懂、捏造细节。
法学硕士生小昭在写论文时发现,AI生成的内容有很多是错误的。特别是在处理“深度伪造”的法律问题时,AI会生成虚假的法律条例和案例。她还发现,AI喜欢引用过于具体的数据,这些数据明显是编造的。尽管如此,小昭仍然依赖DeepSeek、豆包、Kimi等AI工具来辅助写作,但她每次看到DeepSeek引用的内容都要重新检索确认真实性。
小昭的感受并不虚妄。在Github上的一个名为Vectara的大模型幻觉测试排行榜中,2025年1月发布的DeepSeek R1,幻觉率高达14.3%,远高于其他国际先进大模型。张俊林解释,DeepSeek生成的内容比一般AI应用更长,更容易出错。此外,DeepSeek在生成答案时展现出很强的创造性,这与强调信息精确的要求相悖。
清华大学团队在2025年2月发布《DeepSeek与AI幻觉》报告,将AI幻觉分为两类:事实性幻觉和逻辑性幻觉。香港科技大学团队的研究指出,导致AI幻觉的原因包括数据源问题、编码器设计问题、解码器错误解码等。从AI大模型原理的角度看,AI幻觉被业界认为是AI拥有智能的体现。出门问问大模型团队前工程副总裁李维解释,幻觉的本质是补白,是脑补。
AI自己也承认幻觉的存在。在深度思索模式下,DeepSeek列出了自己的反思,表示知识边界限制和生成机制特性导致了这一结果。尽管AI的幻觉在某些科研工作中有用,如新分子的发现,但解决或改善幻觉问题仍非常重要。美国知名律师事务所Morgan & Morgan警告律师不要在法庭文件中使用AI生成的虚假信息,否则可能面临严重后果。科技公司也在尝试通过检索增强生成技术(RAG)等方式减少幻觉的产生,但目前还没有根除 *** 。
OpenAI华人科学家翁荔建议,确保模型输出是事实性的并可以通过外部世界知识进行验证。谷歌的Gemini模型提供了“双重核查响应”功能,以帮助用户辨别内容的真实性。这些努力都在提醒人们不要全然相信AI。