“你家的AI助手撒过谎吗?”股票杠杆叠加
最近,一位网友用某AI工具查询“鲁迅和莫言谁先得诺贝尔奖”,结果AI一本正经地回答:“鲁迅先生因《阿Q正传》获得1930年诺贝尔文学奖。”——但事实是,鲁迅从未获此奖项,而莫言是2012年的获奖者。
这种AI“张冠李戴”的现象,正是热议的“AI幻觉”。全国两会期间,多位代表委员专门聊到这个话题。今天我们就来扒一扒:AI幻觉到底是什么?它为什么会出现?我们又该怎么应对?
1. AI幻觉:不是“犯错”,而是“脑补”
全国政协委员、西南财经大学校长寇纲打了个比方:“就像学生死记硬背课本,考试时遇到没学过的题,就自己编答案。”
AI幻觉的本质是“过度联想”。比如你问AI“唐朝诗人李白喝过咖啡吗?”,它可能回答:“李白曾在长安的胡姬酒肆品尝过波斯咖啡。”——看似合理,但历史上咖啡传入中国是明清时期的事。AI并非故意撒谎,而是根据训练数据中的“唐朝+异域文化”关键词,强行拼凑出一个答案。
一句话总结:
AI没有“常识”,只有“概率”。它像一个没见过世面的学霸,靠猜题蒙答案。
展开剩余66%2. 幻觉是洪水猛兽?专家:先别急着骂!
全国政协委员、360创始人周鸿祎的观点让人意外:“如果AI完全不‘幻觉’,那它就是个复读机,谈何创造力?”
他举了两个例子:
科研领域 :
科研领域 :
AI的“胡思乱想”可能设计出新药分子结构,甚至启发科学家发现新规律;
艺术创作 :
艺术创作 :
AI生成的奇幻画面或故事,本质也是“可控的幻觉”。
但问题在于——
当AI用于医疗诊断、法律咨询等严肃场景时,“幻觉”可能酿成大祸。比如某AI曾建议抑郁症患者“多喝热水”而非就医,差点延误治疗。
一句话总结:
幻觉是AI的“双刃剑”,用对地方是创新,用错地方是灾难。
3. 如何驯服AI的“脑洞”?专家支了三招
① 给AI“补课”:数据要新鲜,知识要更新
AI的训练数据就像“过期教材”,如果只学2020年前的数据,自然不知道2023年的新政策。DeepSeek等企业已开始用实时数据动态修正模型,减少“张冠李戴” 。
② 给AI“立规矩”:明确哪些问题不能瞎猜
比如医疗AI必须标注“仅供参考,具体诊断请遵医嘱”;法律AI需屏蔽敏感问题。未来可能出台《AI生成内容规范》,给幻觉划“禁区” 。
③ 人类要学会“防骗”
代表委员们一致建议:“别把AI当神,要当工具。” 重要决策前,务必用权威渠道交叉验证。就像网友调侃:“AI说鲁迅得过诺奖?先查查百度百科!”
AI幻觉不是“狼来了”,而是技术成长的必经之路。就像人类从“地心说”到“日心说”,认知总在试错中进步。与其恐惧幻觉,不如学会驾驭它——毕竟,能“幻想”的AI,才是未来颠覆世界的种子。
你遇到过哪些哭笑不得的AI幻觉?评论区晒一晒!
#代表委员答网友问:什么是AI幻觉#股票杠杆叠加
发布于:河南省