川观新闻记者 唐泽文

此前AI应用饱受争议的一个点在于,大模型时常产生“幻觉”。

大模型出现“幻觉”,是指模型生成内容与现实世界事实不一致的现象,简而言之就是“胡说八道”。产生的原因主要有数据缺陷、捕获事实知识利用率较低等。

当下看,这个情况已得到大幅改善。百度创始人李彦宏的观点是,过去24个月,大模型的最大变化是基本消除“幻觉”。

“幻觉”基本消除,意味着大模型的“靠谱度”大幅提升。靠谱了,大家就愿意用了。