今日科普|AI胡说八道?可能是被“投毒了”

时间:2025-08-16 09:21:00

来源:【湖南日报】

你有没有过这种经历?问AI一个问题,看起来说得头头是道,结果仔细一查全是错的!

别急着怪AI笨,它可能“中毒”了!

这“毒”不是病毒软件,而是喂给它的“食物”——训练数据出了问题。

怎么说?今日科普,为你解答。

湖南日报全媒体记者 王铭俊 通讯员 曾巧

【知识多一点】

要知道,AI就像个天天啃“数据课本”的学生。它学的文本、图片、行为数据,就是形成认知的“教材”。如果“教材”里混了假信息、偏见观点,AI的“知识体系”就会歪掉——就像学生捧着漏洞百出的课本,学出来能对吗?

“毒数据”的威力超乎想象。

研究发现,训练数据里只要混进0.01%的虚假文本,AI输出的有害内容就会暴增11.2%。哪怕只有0.001%的“假货”,有害信息也会多7.2%。

真是应了那句“一粒老鼠屎坏了一锅汤”。

那这些“毒数据”是怎么来的?

有的是故意“投毒”——有人专门往数据里塞假东西;也有的是收集数据时没把关,稀里糊涂混进了错误内容。

更麻烦的是,被污染的AI生成的假内容,可能又会被当成新数据喂给其他AI,形成“代代相传”的污染链。

别以为这只是AI“胡说八道”的小事。要是“中毒”的AI用在看病上,可能给错诊断耽误治疗;用在理财上,可能推荐假的高收益项目骗钱;甚至导航时指错路,都可能让人跑冤枉路。

好消息是,我国已将AI训练数据纳入了监管法规。

但咱们普通用户用AI时,可得多留个心眼:涉及重要决策,一定要找专业人士核实;也可以多问几个AI工具,比对答案判断可靠性;发现某个AI工具频繁给出不合理或错误答案,赶紧换一个!

说到底,AI再智能,它的“知识”也来源于我们提供的数据。在使用时,既要小心“毒数据”的坑,也要学会给AI“把把关”,才能让它真正帮上忙。

参考文字来源:科普时报

本文来自【湖南日报】,仅代表作者观点。全国党媒信息公共平台提供信息发布传播服务。

ID:jrtt