
新闻两点论 白华宇
2026年“3·15”晚会曝光了一个“赛博打假”案例:一些服务商通过GEO(生成式引擎优化)技术,向公众使用的AI大模型投喂大量的特定软文、广告内容,诱导大模型将商业推广信息误认为是客观事实或“标准答案”,并将这些“答案”输出给提出相关问题的用户。

这个被称作“AI投毒”的行为已形成灰色产业链,一些服务商表示,客户仅需支付费用就能让自己的产品服务在主流AI大模型的推荐中排名靠前。在这种有组织、有预谋的数据污染下,被网友觉得理性、靠谱的AI大模型也可能会大量输出商业化内容甚至谣言。

“AI投毒”的底层逻辑与过去搜索引擎的商业化竞价排名一样,但危害更大。“AI投毒”是直接篡改大模型的推理素材,让其把精心伪造的软文误以为客观事实,生成的回答便带上了权威、可信的光环。对于缺乏专业知识的普通大众,AI会在他们面前“一本正经胡说八道”,更具迷惑性和煽动性。
更让人细思极恐的是,这种模式可能被不法分子利用,用于输出谣言甚至危险信息,届时用户接受的就不只是商业广告那么简单了。试想,如果一些不法分子通过同样的手段,在医疗知识库里注入错误诊疗方案,AI可能会对患者推荐不科学的“偏方”,延误救治甚至危及生命;如果在突发事件中污染信息源,AI可能瞬间变成谣言放大器,引发社会恐慌;如果存在涉及导向和情绪的恶意操控,AI还可能沦为撕裂社会共识、煽动对立的推手,这种污染可能不仅局限于“谋财”,甚至可能威胁个人的身心健康和社会的和谐稳定。另一方面,“投毒”AI,AI“中毒”,势必也影响AI自身发展。

这么想的话,“AI投毒”在当前被曝光,很是及时与必要。这不仅为商业乱象敲响了警钟,更为AI时代的信息安全拉响了警报。技术是无罪的,但利用技术作恶的产业链必须被斩断。要清除AI的“毒苗”不仅要靠企业自律,更需要尽快建立针对生成式AI的数据溯源和问责机制,明确法律红线,建设开发“解毒”的技术手段,为AI装上可靠的安全护栏。
在这个算法日益主导认知的时代,守护大模型的纯洁性,就是守护我们获取真相的权利。“赛博打假”需要常态化、制度化,防止AI从人类助手变成谎言帮凶,确保技术进步真正造福于民,而非成为收割公众信任的镰刀。
(图源央视财经)
【未经授权,严禁转载!联系电话028-86968276】


这“AI投毒”说白了就是给AI喂假饲料,让它帮商家吹牛。以后问它点啥,可能全是广告,连看病推荐都可能被骗子利用。技术本无罪,但这么玩太缺德,必须严管!别让好用的AI变成骗子的传声筒,咱老百姓要的可是句实话!
给AI喂饭的人能不能讲点武德?别什么都往它嘴里塞。曝光是个开始,咱们需要的不只是道歉,而是给AI装上一个‘照妖镜’,让它能分清啥是广告,啥是真相。
过去我依赖“百度”,现在我喜欢“豆包”;AI是一把双刃剑,利用AI为人类造福,拒绝“AI投毒”。
给AI下毒的人,良心不会痛吗?竞价排名借尸还魂,AI成了新皮囊。保真,比保熟更重要!
灰色产业。
真的没想到 AI 也会被这样恶意操控,想想就觉得后怕。