算法技术将向着“通用化、生成式、自主智能”方向加速演进。在发展趋势上,基础模型将成为核心底座。未来的算法生态将高度依赖少数几个强大的通用基础模型,大量的应用将通过应用程序接口或微调建立在这些模型之上。这意味着算法的“价值链”属性将更加凸显,上下游的依赖关系更强,风险传导速度更快。同时,算法将具备更强的多模态处理能力与自主决策能力,从单纯的信息分发走向内容创造甚至对物理世界的操控。
算法技术带来的新挑战主要体现在以下几个维度:
一是真实性危机与认知混乱。生成式人工智能可能产生虚假信息、幻觉,这将冲击社会的信任基石。面对真假难辨的内容,公众的认知可能面临混乱,甚至可能被用于制造政治谣言、操纵舆论,威胁国家安全与社会稳定。
二是“责任鸿沟”扩大。随着算法自主性的增强,人类在人机协作决策中的作用可能被进一步稀释。当人工智能系统在没有人类直接指令的情况下“自主”造成损害,如自动驾驶事故、人工智能生成的诽谤内容,如何界定开发者、部署者与使用者的责任将变得非常困难。传统的过错责任原则可能面临失效,导致受害人陷入无处追责的境地。
三是新型数据信息损害的泛化。未来的算法侵害将不再局限于实体财产或人身伤害,而更多体现为无形的、微小的、系统性的损害。例如,个人信息被用于训练模型导致的隐私泄露风险增加、因算法偏见导致的未来发展机会丧失、因长期被算法操纵导致的精神焦虑与自主性丧失等。这些非物质性损害在现有法律框架下难以被量化和救济。
四是安全风险的系统性升级。基础模型的通用性意味着一个底层的安全漏洞可能波及下游成千上万的应用。数据投毒、提示词攻击等新型攻击手段将对网络安全构成不对称威胁。
应对算法挑战,必须构建一个“分层治理、全程覆盖、价值引领”的立体化法律制度框架与伦理规范体系。
在法律制度设计上,应确立全链路治理与场景化规制相结合的思路。一是构建基于价值链的责任体系。打破单一的服务提供者责任模式,依据基础模型开发、系统集成、服务应用等不同环节,按“获益与风险相一致”及“危险控制”原则分配责任。基础模型开发者应承担模型安全、数据合规的源头治理责任;服务提供者应承担场景化风险管理的责任。二是推进算法治理的场景化。针对生成合成、个性化推送、排序精选、检索过滤、调度决策等不同算法应用场景,设定差异化的监管要求与注意义务。避免“一刀切”式监管,确保法律规制与技术应用的实际风险相匹配。三是完善损害救济制度。承认“数据信息损害”的独立法律地位,将个人信息权益受损引发的风险升高、机会丧失、精神焦虑等纳入可赔偿范围。对于微小但系统性的算法侵害,应探索建立公益诉讼制度与法定赔偿机制,降低个体的维权成本。
在监管手段上,实施穿透式监管。监管机构不能仅停留在对服务表象的管理,而应深入到算法的底层逻辑、数据来源与审核机制。继续完善算法备案、算法审计与合规评估制度,要求平台在关键环节保持算法的透明度与可解释性,打破“技术黑箱”。
在技术伦理规范上,坚持以人为本与智能向善。一是确立“人在回路”原则,即人类实质性把关决策结果。在涉及生命健康、司法裁判等重大权益的决策中,必须保留人类的最终干预权与否决权,保障人不受自动化决策的绝对控制。二是强化算法的伦理嵌入。要求开发者在算法设计阶段即导入公平、非歧视、隐私保护等伦理价值,进行红队测试以防范潜在风险。三是保障用户的算法解释权与拒绝权。落实用户知晓算法运行逻辑的权利,以及在特定情况下拒绝个性化推荐、标签化画像的权利,保留人离开算法控制、回归自主决策的自由。
更多内容详见:《求是专访 | 怎样科学有效驾驭算法》
来源:求是网
策划:梁佩韵
责编:徐辉冠
审核:李艳玲
【未经授权,严禁转载!联系电话028-86968276】
