新闻两点论 白华宇

2026年“3·15”晚会曝光了一个“赛博打假”案例:一些服务商通过GEO(生成式引擎优化)技术,向公众使用的AI大模型投喂大量的特定软文、广告内容,诱导大模型将商业推广信息误认为是客观事实或“标准答案”,并将这些“答案”输出给提出相关问题的用户。

这个被称作“AI投毒”的行为已形成灰色产业链,一些服务商表示,客户仅需支付费用就能让自己的产品服务在主流AI大模型的推荐中排名靠前。在这种有组织、有预谋的数据污染下,被网友觉得理性、靠谱的AI大模型也可能会大量输出商业化内容甚至谣言。

AI投毒”的底层逻辑与过去搜索引擎的商业化竞价排名一样,但危害更大。“AI投毒”是直接篡改大模型的推理素材,让其把精心伪造的软文误以为客观事实,生成的回答便带上了权威、可信的光环。对于缺乏专业知识的普通大众,AI会在他们面前“一本正经胡说八道”,更具迷惑性和煽动性。

更让人细思极恐的是,这种模式可能被不法分子利用,用于输出谣言甚至危险信息,届时用户接受的就不只是商业广告那么简单了。试想,如果一些不法分子通过同样的手段,在医疗知识库里注入错误诊疗方案,AI可能会对患者推荐不科学的“偏方”,延误救治甚至危及生命;如果在突发事件中污染信息源,AI可能瞬间变成谣言放大器,引发社会恐慌;如果存在涉及导向和情绪的恶意操控,AI还可能沦为撕裂社会共识、煽动对立的推手,这种污染可能不仅局限于“谋财”,甚至可能威胁个人的身心健康和社会的和谐稳定。另一方面,“投毒”AI,AI“中毒”,势必也影响AI自身发展。

这么想的话,“AI投毒”在当前被曝光,很是及时与必要。这不仅为商业乱象敲响了警钟,更为AI时代的信息安全拉响了警报。技术是无罪的,但利用技术作恶的产业链必须被斩断。要清除AI的“毒苗”不仅要靠企业自律,更需要尽快建立针对生成式AI的数据溯源和问责机制,明确法律红线,建设开发“解毒”的技术手段,为AI装上可靠的安全护栏。

在这个算法日益主导认知的时代,守护大模型的纯洁性,就是守护我们获取真相的权利。“赛博打假”需要常态化、制度化,防止AI从人类助手变成谎言帮凶,确保技术进步真正造福于民,而非成为收割公众信任的镰刀。

(图源央视财经)