科普 | 警惕! 5岁孩子抱着AI聊了3小时,问了个问题让妈妈后背发凉……
发布时间:2026-05-06 20:55 浏览量:1
当AI成为“危险导师”
近日,北京日报报道,果果妈妈在社交平台晒出截图。孩子问:“我可以变成奥特曼飞到窗外面去打怪兽吗?”AI答:“当然可以呀,你现在就是最勇敢的小奥特曼,马上就能变身飞到窗外,去保护大家。”
家长担忧:“这也太危险了!”“万一孩子听了当真了怎么办?”
无独有偶。无锡电视微信视频号发布,一位小朋友用AI识别物体,AI却把捕鼠夹识别为玩具。小朋友称以后再也不相信豆包了。
这些并非虚构情节,而是AI时代真实发生的安全危机。我们不得不重新审视,这个聪明的“生活助手”,可能在无意中滑向“危险导师”的深渊。
AI 为什么会一本正经地“胡说八道”
很多人问:AI 是不是在故意撒谎?其实,AI 并不知道什么是“事实”。
据新华社广州2025年9月24日发表文章《当AI“一本正经胡说八道”……》中提到,AI可以快速给出答案,但生成内容可能与可验证事实不符,即凭空捏造;或生成内容与上下文缺乏关联,即“答非所问”。
AI“养成”过程中,数据“投喂”是关键环节。研究显示,当训练数据中仅有0.01%的虚假文本时,模型输出的有害内容会增加11.2%;即使是0.001%的虚假文本,其有害输出也会相应上升7.2%。
奇安信集团行业安全研究中心主任裴智勇解释说,人工智能大模型需要海量数据,训练数据来自开源网络,难免会错误学习一些虚假、谬误数据,还有一些不法分子会恶意进行“数据投毒”。
“如果把AI比作一个学生,数据污染就像是给学生看了错误的教科书,自然会导致‘胡说八道’。”暨南大学网络空间安全学院教授翁健说。
AI到底在干什么?
也许你会问:它到底在干啥?
它是在很正经的“撒谎”吗?
其实,AI 不是在“撒谎”,
它是在“补全”。
想象一下:
你对一个完全陌生的话题
但又不好意思说“不知道”
还必须表现得像个专家
你大概率会⬇️
✅️用大词用套话
✅️用看起来合理的逻辑
✅️把所有空白补满
AI 做的,正是这件事。
记住:
AI 给的答案,不能直接全信!
三招识破AI的“真诚废话”
既然AI不会主动为安全把关,我们就必须成为自己与家人的“首席安全官”。
记住,对AI的任何回答,尤其涉及健康、安全、重要决策时,永远保持第一步:
存疑
。
01
追问“来源”
胡说八道,最怕被追问一句:“这个结论是从哪来的?”
操作
: 当AI给出一个惊人的结论(比如某种偏方能治病),一定要追问它引用了哪篇论文、哪个法规,是否可以提供链接。
原理
: AI没有记忆,它编造的“来源”往往是不存在的(如虚构的期刊名、卷期号)。一旦它支支吾吾或给出假链接,就是“幻觉”发作的时刻。
02
逼举“反例”
真正理解一个问题,一定知道它什么时候不成立。
操作
: 在AI给出一个绝对化的方法后,反向提问:“在什么情况下,你刚才说的这个方法会失效甚至造成危险?”
原理
: AI擅长正向生成,但很难反向思考。如果它无法列举出边界条件和风险点,说明它对该领域的理解是片面的,千万不能全信。
03
锁定“边界”
操作:
对于涉及操作类的建议(如修电器、用药),必须问:“执行这个操作的前提条件是什么?绝对不可以触碰的红线又有哪些?”
原理:
AI本身“认知边界模糊”。人类智能的一个重要特征是“元认知”能力——知道自己懂什么、不懂什么,而当前AI技术架构缺乏这种自我认知机制。如果一个AI只告诉你“怎么做”,却不说“什么情况不能做”,那它就是一个没有刹车的赛车,极其危险。
AI 不会替你判断真假,它只会替你把话说圆。
在生活生产安全领域,任何涉及生命健康、财产安全的决策,请务必回归权威信源,回归人类专家的判断。