原标题:AIGC时代新型智库的隐忧:来自数据可靠性与技术依赖的双重挑战



AIGC 技术在提升智库研究效率的同时,也带来了数据真实性难以保障、模型生成内容存在偏差、研究人员过度依赖技术等风险。新型智库应通过建立健全数据治理制度、提升研究人员 AI 素养、构建适配性技术体系等措施,实现认知主导与技术赋能的有效平衡,确保智库研究的科学性、原创性与社会责任。



李广建

自 2013 年十八届三中全会首次提出“中国特色新型智库”这一概念以来,尽管学者们从不同角度界定了新型智库的概念,但所有的界定都绕不过研究方法跃迁。也就是说,随着互联网和信息技术的广泛应用,智库的研究方法和研究资源得到了极大拓展,以海量数据(内容)为基础、通过数学模型以及各种自动化的计算工具,极大地提高了智库研究成果新颖性、及时性和广泛性,也保证了智库研究结果的科学性和准确性,成为新型智库的核心特征。新型智库在研究方法方面的变革,决定了其由传统的依靠信息情报分析与专家经验、以精英专家主导的工作模式,转向了面向数据(内容)以模型和算法为驱动力的工作模式。这种模式的转变在一定程度上决定了新型智库在组织方式、运行机制、管理模式、制度规范等方面的其他特征。

2022 年年底至 2023 年年初,以聊天生成预训练转换器(chat generative pre-trained transformer,ChatGPT)为代表的大模型技术爆发式迭代,大语言模型已经具备了代码生成、文本创作、多语言翻译的能力,人工智能生成内容(artificial intelligence generated content,AIGC)技术开始进入了人们的视野。2024年2月,OpenAI发布的Sora模型,引起了不小的轰动,Sora 模型的出现被认为是 AIGC 技术进入了可应用时代,因此,有人把 2024 年称为 AIGC 技术应用落地的“元年”。AIGC 技术的显著特点在于其能够依据用户的要求,高效且自动化地生成内容,这一过程极大地提升了内容生产的效率,有效地减轻了用户的负担,并能够保证所生成的内容高度贴合用户的期望(“一本正经胡说八道”的痕迹越来越淡)。此外,随着 AIGC 技术的日趋完善,由 AIGC 技术驱动的海量信息已经在互联网平台上大规模传播,在信息传播领域有着强大的影响力。2025 年 1 月,巴黎人工智能行动峰会(Artificial Intelligence Action Summit)公布了由图灵奖得主、计算机科学家约书亚·本希奥(Yoshua Bengio)担任主席,全球 30 多个国家,近百名科学家共同完成的《国际 AI 安全报告》(International AI Safety Report),该报告将 AI 带来的风险归纳为 3 大类 13 小类,其中与数据(内容)直接相关的风险高达 6 类,约占风险总数的一半。该报告表明,由 AIGC 技术所生成的拟真内容,正对社会各个领域产生全方位、深层次的颠覆性作用,特别是在知识密集型、以内容为中心的工作领域,AIGC 技术正在改变着其工作范式、业务流程以及生态。

新型智库的核心竞争力在于系统性的信息分析和创新性的内容利用,典型地属于知识密集型、以内容为中心的工作领域。AIGC 技术与应用的进展,对新型智库的研究范式与知识生产方式带来了新的挑战。AIGC 技术出现之前,AI 技术主要是通过算法和工具为智库研究进行赋能,例如,可以利用各种 AI 算法 LDA、BERT 等提升智库研究中的知识挖掘能力,利用各种可视化工具直观地展示各类数据,突破了手工作业的局限,有效地提升了智库工作的效率。AI 对智库工作一直发挥着助力和正向驱动的作用,存在的潜在风险并不突出。然而,AIGC 技术出现之后,AIGC 技术所特有的生成内容不可控性、事实性偏差累积效应及认知误导风险,正在对新型智库产生巨大影响,成为制约新型智库更进一步发展的深层隐患。

AIGC 技术对新型智库工作所带来的挑战是多方面的,但笔者认为以下两个方面的风险需要引起当今新型智库的充分重视。

一方面,数据(内容)可靠性的风险。在AIGC 时代,数据(内容)风险的来源有两个。一是,内容本身就是伪造的。也就是说,内容伪造者怀着特定的政治、经济或社会动机,利用特定的、具有偏向性的提示词,故意引导 AIGC 模型生成特定的带有偏见或虚假的信息。这类伪造信息,随着 AIGC 技术的进步,内容的逼真度持续提升,往往以假乱真,即使是专业的用户也很难辨别。例如,2024 年 7 月,四川网警公布了 10 起用AIGC技术编造不实消息的典型案例,包括“山体滑坡致八人遇难”“喜德县地震”“巴中警民对峙”“成都公交车失控”“地下热管道破裂”“建筑工地事故”等与社会稳定、公共秩序相关的内容,虽然有个别案例是完全凭空捏造,但相当一些案例采用了移花接木的手段,将以往发生的社会新闻,换个名称、换个地点进行嫁接,更有甚者以真实的事件为基础,利用AIGC技术生成图片,夸大不良事件的后果,造成了不良的社会影响。这些 AIGC 内容的共同特点是图文并茂,文字规范流畅,如果不在现场,很难辨别其真伪。这类信息一旦被智库研究采信,所带来的后果是可想而知的。二是,AIGC 模型的训练数据或者 AIGC 模型本身有缺陷,在模型训练过程当中出现了部分错误,导致生成的内容也有不准确的地方,甚至是错误的,这一类的问题更具隐蔽性,可能更难发现。例如,《警惕 AI 幻觉:大模型生成内容的真相与谎言》一文中,列举了一些典型的 AIGC 技术生成的错误内容,其中,一个典型例子是训练数据不准确导致 AIGC 模型编撰了一个不存在的政策文件,用来支持其所生成的内容;另一个典型的例子是AIGC模型由于本身的问题,将“国家级专精特新企业达到 743 家,市级专精特新企业超过 8,600 家”笼统地生成为“专精特新企业超过 8,600 家”。这类错误在逻辑上似乎都没有太大的问题,但在需要以这些内容作为决策的依据时,往往会给人以误导。

另一方面,随着 AIGC 技术的发展,AIGC 模型的推理能力越来越强,已经能够支持多轮对话并保持连贯性、理解使用者的意图、处理复杂逻辑关系、综合理解文本和图像,甚至能进行预测。AIGC 技术在强大算力的加持下,可以处理真正意义上的海量数据,有效弥补了人脑在面对庞大信息时于搜集、处理和分析上所固有的自然局限,通过对数据内容及其关系、模式的深度解析、挖掘和发现,为研究人员解决辅助决策问题提供了有力支持,极大地提高了研究人员的工作效率,甚至能够完成研究人员很难做到的系统总结、深度提炼与有机融合。也就是说,AIGC 技术形成的总结性内容及其展示方式,相较于人类耗费大量时间所产出的内容,在逻辑性、完整性和专业性上有着更为卓越的品质与深度,这就使人们在自觉或不自觉地将自身的决策能力、思考能力乃至情感寄托让渡于 AIGC 技术,导致所谓的 AI 依赖(AI dependence)。现有研究表明,AI 依赖确实存在,并且在多个领域都已经产生了明显的影响,在智库研究领域也不例外。海伦娜·瓦康塞洛斯(Helena Vasconcelos)等的研究表明,随着任务难度的增加,对用 AIGC 技术生成结论的过度依赖也会增加。当人们面对比较复杂的决策性任务时,人们会更倾向于完全接受 AI 的结论,而不再去做进一步主动的深度思考。产生 AI 依赖的原因是多方面的,但至少有一点需要重视,这就是人的本能。生物学、心理学和认知科学的研究表明已经证实,人类有追求效率和省力的本能。在进化过程中,保存能量意味着更高的生存机会,所以大脑倾向于选择“最小努力原则”的方式进行工作,大脑处理信息需要消耗能量,面对复杂任务时,人类更愿意依赖外部工具,而 AIGC 技术可以将报告写作等复杂认知操作转化为低能耗的人机交互,完美契合了人类生物体“节能优先”策略。智库研究人员也同样具有这样的本能,不可避免地存在这样的问题。

上述两类风险分别存在于智库工作的初始端与输出端,深刻地影响智库研究的质量。智库研究的科学性建立在数据采集与处理的准确性基础之上,如果原始数据失真,即便是后续各个环节再努力,也无法得出正确的结论。在智库产品的终端输出环节,过度依赖 AIGC 技术实际上就是研究人员的批判性思维“外包”给了算法,这本身与智库作为“社会大脑”和“思想库”应具备原创性思维功能的要求相悖。

为解决上述问题,笔者认为关键是处理好“认知主导”与“技术赋能”两者之间的关系。具体地说,新型智库建设需要构建“制度—素质—技术”三位一体的协同机制保障。在制度维度,应建立 AIGC 工具应用的规范化管理体系,完善数据全生命周期的质量监控与可信性认证机制,确保智库各项业务的科学性与伦理合规性。在人员素质维度,需强化研究人员的 AI 素养,提升研究人员在使用 AIGC 工具过程中进行人机协同的能力,重点突出人员在价值判断、逻辑重构与跨学科整合中的主体性作用。在技术维度体系,需要根据特定智库的方针任务及功能定位,研发适配性 AIGC 技术架构,包括:完善“数据采集—清洗—验证—存储—评估”全流程技术链;本地化部署 AIGC 生成模型;构建用于训练模型的领域适配的标准训练数据集。这种“制度—素质—技术”三位一体的协同机制以制度为保障、通过研究人员的能力提升,以与智库工作适配的技术创新为支撑,可以使新型智库借助 AI 发展带来的红利可持续地健康发展。

(作者系北京大学信息管理系教授)