来源:【湖南日报】
你有没有过这种经历?问AI一个问题,看起来说得头头是道,结果仔细一查全是错的!
别急着怪AI笨,它可能“中毒”了!
这“毒”不是病毒软件,而是喂给它的“食物”——训练数据出了问题。
怎么说?今日科普,为你解答。
湖南日报全媒体记者 王铭俊 通讯员 曾巧
【知识多一点】
要知道,AI就像个天天啃“数据课本”的学生。它学的文本、图片、行为数据,就是形成认知的“教材”。如果“教材”里混了假信息、偏见观点,AI的“知识体系”就会歪掉——就像学生捧着漏洞百出的课本,学出来能对吗?
“毒数据”的威力超乎想象。
研究发现,训练数据里只要混进0.01%的虚假文本,AI输出的有害内容就会暴增11.2%。哪怕只有0.001%的“假货”,有害信息也会多7.2%。
真是应了那句“一粒老鼠屎坏了一锅汤”。
那这些“毒数据”是怎么来的?
有的是故意“投毒”——有人专门往数据里塞假东西;也有的是收集数据时没把关,稀里糊涂混进了错误内容。
更麻烦的是,被污染的AI生成的假内容,可能又会被当成新数据喂给其他AI,形成“代代相传”的污染链。
别以为这只是AI“胡说八道”的小事。要是“中毒”的AI用在看病上,可能给错诊断耽误治疗;用在理财上,可能推荐假的高收益项目骗钱;甚至导航时指错路,都可能让人跑冤枉路。
好消息是,我国已将AI训练数据纳入了监管法规。
但咱们普通用户用AI时,可得多留个心眼:涉及重要决策,一定要找专业人士核实;也可以多问几个AI工具,比对答案判断可靠性;发现某个AI工具频繁给出不合理或错误答案,赶紧换一个!
说到底,AI再智能,它的“知识”也来源于我们提供的数据。在使用时,既要小心“毒数据”的坑,也要学会给AI“把把关”,才能让它真正帮上忙。
参考文字来源:科普时报
本文来自【湖南日报】,仅代表作者观点。全国党媒信息公共平台提供信息发布传播服务。
ID:jrtt