➤明确技术“原则”,通过立法形成一套人工智能技术标准和评估体系来加以规范,是保障人工智能健康发展的重要“防火墙”

➤随着人工智能在千行百业应用场景拓宽,技术在方便人们生产生活的同时,一旦发生法律纠纷,侵权主体的责任认定就成了摆在法学界面前的突出难题

➤数字化转型所催生的新业态带来政府监管挑战,社会结构、制度框架、法律体系都需随着数字化转型变革而持续互动演进

➤加强人工智能法治保障须以促进社会整体利益为导向,避免法律规范不当挤压人工智能发展的空间

冯维健

今年1月,深度求索公司的DeepSeek一经发布,迅速引爆国际国内市场,其在知识问答、长文本处理、代码生成和数学能力等方面的专业性,展现了我国在人工智能技术领域的突破性进展和创新性成就。

当前,人工智能技术飞速发展,在众多领域展现出巨大潜力的同时,也引发了一系列关乎技术伦理、社会安全、版权保护等方面的担忧。业内人士纷纷呼吁,强化人工智能立法,以法治建设支持和引导人工智能产业发展,构建在全球科技竞争中的制度优势。

人工智能安全风险逐渐显露

随着生成式人工智能和大模型技术的广泛应用,人们开始发现,在网络上,“眼见也不一定为实”。

陕西警方2024年2月通报一起案件,某公司财务人员接到经理的视频通话,要求她转账186万元到一个指定账户。因为视频通话中对方的声音、长相和言谈举止都与经理一样,财务人员迅速完成转账。事后当上级领导询问这笔资金的去向时才发现被骗。本案中犯罪分子实施诈骗就是应用人工智能技术实现了声音和视频画面的深度伪造。

“十几分钟音频加上几张照片就可以‘换脸’并模仿这个声音,现实中一个普通高中生就可以做到。”黑龙江大学计算机与大数据学院(网络安全学院)院长王磊说。

“借助‘AI换脸’‘AI拟声’技术实施诈骗,犯罪成本越来越低,侦破难度越来越大。”北京金诚同达律师事务所高级合伙人马林艳表示,技术被滥用是电信诈骗的“最后一环”,用户的个人数据和隐私信息泄露则是前置条件。

2024年6月,公安部披露了多起涉及人工智能技术的深度伪造典型案例。其中一起案件中,犯罪嫌疑人利用人工智能技术对被害人照片进行“一键去衣”处理,批量生成了近7000张淫秽图片并通过网络贩卖,严重侵害了他人的隐私权、名誉权等合法权益。

“在一些西方国家的选举中,通过深度伪造,制作出虚假的候选人宣传视频,这些内容可能被用来抹黑竞争对手或美化特定候选人,从而影响选民的判断和投票决策,破坏大选的公正;在战争中,极端势力基于传统游戏视频,简单加工后伪造成逼真的战争视频,制造民众恐慌甚至加剧国际关系紧张。”王磊说,深度伪造涉政风险往往更加突出,它可能伴随政治操纵风险、社会动荡风险、意识形态风险等危害国家安全。

国家工业信息安全发展研究中心党委副书记吴铁男表示,当前人工智能算法训练和使用过程中存在“算法黑箱”、不可解释等内生问题,以及过度使用、恶意应用,隐私泄露、数据滥用、“数据投毒”等问题。

“在人工智能风险管理体系中,自身风险和衍生风险都值得关注。其中,自身风险出自人工智能技术系统本身,包括数据、框架、模型、芯片、算力、网络应用服务等风险,而衍生风险则应该放在个人、组织、社会、国家乃至全人类的视域下去讨论。”中国信息通信研究院人工智能研究所高级业务主管呼娜英说,相较于自身风险可以通过技术标准提升加以防范,衍生风险的出现更要求法治跟进。

北京大学法学院教授、北京大学武汉人工智能研究院副院长张平认为,明确技术“原则”,通过立法形成一套人工智能技术标准和评估体系来加以规范,是保障人工智能健康发展的重要“防火墙”。

多项法律存在空白

人工智能作品能否受到知识产权保护?

“根据我国现行的《中华人民共和国著作权法》,人工智能的主体性正在知识产权界引发广泛争议。”上海理工大学出版学院讲师李想表示,多数观点认为生成式人工智能不能满足《中华人民共和国著作权法》中的作者资格,其内容生成过程只是计算而非创作,应以创作工具视之。

而随着技术快速发展,一些人工智能生成物似已实现了从“复制”到“创造”的跨越,生成式人工智能的著作权侵权风险与制度应对面临“立法空白”。

2023年,北京互联网法院针对人工智能生成图片作品著作权侵权纠纷作出一审判决,认定原告使用开源软件Stable Diffusion通过输入提示词方式生成的图片作品体现了原告的智力投入,具备“智力成果”要件和“独创性”要件,应当认定为作品,受《中华人民共和国著作权法》保护。

上述案件庭审曾在多个平台直播,吸引了17万网友观看,引发较大关注。原告在庭审最后表示,自己的目的并不是为了赔偿,而是希望法院通过这个案件,能够对AI绘画作品的著作权问题给出明确的裁量和认定标准,方便所有创作者参考。

“在人机融合的状态下,司法实践有必要进行明确区分,到底哪些是人创造出的内容,哪些是机器创造出的内容。”华东政法大学知识产权学院副院长于波称,人工智能生成物出现后,现有创作模式产生颠覆性变化,给知识产权法律保护带来前所未有的挑战。

随着人工智能在千行百业应用场景拓宽,一旦发生法律纠纷,侵权主体的责任认定就成了摆在法学界面前的突出难题。

以无人驾驶为例,在自动驾驶模式下,一旦发生交通事故,责任可能同时涉及车辆制造商、软件系统开发设计者、车主等多个主体,责任追究和分配变得非常复杂。

“我国现有法规主要针对传统机动车交通事故侵权责任的解决办法,缺少对自动驾驶汽车驾驶主体的界定、数据采集等相关细则,也缺少对责任主体、责任承担、数据保护的法律规定。”同济大学法学院副教授张韬略称,特别是紧急情况下,机器拥有进入“安全状态”的“自主权”,由此造成的事故如何进行责任认定,需要在立法和司法实践中加以解决。

由于训练数据不均衡、算法设计缺陷等因素,人工智能容易出现偏见。在求职招聘、信贷审批、司法裁判等领域,可能因算法对特定群体特征的不当学习而产生歧视性决策,加剧社会不公平,损害部分弱势群体的权益。

西安交通大学法学院教授焦和平表示,在求职招聘、信贷审批、司法裁判等过程中,平台自身拥有一定的“裁判权”。人工智能技术的应用,使得这一流程全部算法化,由此造成的法律纠纷,需要法律进一步明确。

人工智能在司法实践中的应用也成为法学界关注的焦点。吉林大学法学院教授谢登科认为,人工智能证据的认定存在一定实践困境。当前,传统电子数据分类方法可能不完全适用于人工智能证据,因为人工智能证据在形成过程中体现了机器深度学习的经验,其真实性需要结合具体应用场景进行审查认定。

中国科学院大学公共政策与管理学院副教授、中国科学技术法学会人工智能专业委员会执行主任刘朝表示,当前需进一步总结人工智能的技术特性、运行规律,科学把握人工智能治理的发展逻辑,以此为基础建立一套行之有效的法律制度体系,妥善规范人工智能技术可能带来的风险挑战。

如何对人工智能前瞻性立法

拥抱人工智能时代,如何做到有法可依?

武汉大学法学院教授孙晋认为,数字化转型催生新业态带来政府监管挑战,很难再沿用工业时代的管理思维予以应对,社会结构、制度框架、法律体系都需随着数字化转型变革而持续互动演进。

从2022年美国发布《人工智能权利法案》蓝图,到2024年欧盟通过《人工智能法案》,人工智能相关问题在全球范围内越来越得到立法部门的广泛重视,欧美一些国家先后出台相应法律。

南通大学法学院副院长王晓燕说,我国近年来逐步出台了有关算法备案、大模型备案和伦理审查登记等领域的指导意见,但技术发展之快已超出现有法律制度的规范,在加强技术检测、强化行业自律的同时,应考虑人工智能前瞻性立法。

中国科学院大学公共政策与管理学院教授、科技与法律研究中心主任方新表示,我国近年来已经出台了多部关于人工智能和网络数据方面的政策法规和指导意见,但人工智能发展迅猛,对一些新的法律问题仍未达成共识,人工智能相关法律法规散见于各部门法中,尚未形成系统完备的人工智能立法。

深度求索公司的DeepSeek爆火后,其服务状态页面曾挂出红色警报,其线上服务遭受持续的超大规模恶意攻击。此外,DeepSeek还遭到一些境外敌对势力的调查、禁用和网络攻击,其背后是对我国科技企业的技术打压、经济遏制和意识形态围攻。

“在国防、政务、关键基础设施等领域,人工智能安全至关重要。立法能够规范相关技术研发、使用标准,防范外部势力利用人工智能漏洞对国家主权、安全造成威胁,更好守护国家核心利益。”王磊说,对于人工智能立法,应该放在总体国家安全观的视域下去审视。

中国法学会党组书记,全国人大常委会委员、全国人大宪法和法律委员会副主任委员王洪祥表示,当前,一些西方国家在人工智能技术领域筑起“小院高墙”,对我进行全方位的遏制打压。在此背景下,应积极进行科技领域的涉外法治斗争,积极参与科技法治领域的国际规则和标准制定,以法治建设支持和引导人工智能发展,构建在全球科技创新竞争中的制度优势。

“随着科技创新成为国际战略博弈的主要战场,与之相对应的制度竞争也日益成为推动未来国际秩序演进的重要力量。”北京理工大学智能科技法律研究中心研究员张心宇称,我国如针对人工智能产业采取前瞻性的法律制度设计,能够更好防控安全风险,促进技术创新,推动国际合作。

在张心宇看来,人工智能技术具有明显的跨国属性。加快推动人工智能规则制定,形成具有中国特色的治理理论和实践,也能为推动人工智能全球治理提供科学方案,贡献中国智慧,提升我国在全球人工智能治理中的话语权和影响力。

随着人工智能技术的快速发展,技术治理需要与法律实践紧密结合,在防范潜在风险的同时,更应着眼于促进技术创新。北京航空航天大学法学院副教授赵精武称,统一监管在任何法律的治理当中都只是起点,还应当关注不同科技创新主体的制度需求。

中国科学院院士房建成认为,加强科技法学研究和科技法治建设,更需要引进科学家为科技立法工作开拓前沿视野。

“当前,有关人工智能相关立法,已经从谈原则的软法时代进入讲权利义务实体规定的硬法时代。”清华大学法学院教授、智能法治研究院院长申卫星坦言,在制定法律时应坚持安全和发展并重,二者之间如何协调是立法最大的难题之一。张心宇也表示,加强人工智能法治保障必须以促进社会整体利益为导向,避免法律规范不当挤压人工智能发展的空间。

孙晋建议,尽快推动制定一部能够覆盖数字经济核心产业的数字经济促进法,以此作为发展数字经济的基本法、上位法,统领反垄断监管和数字化治理实践,从而促进已有地方性法规、政策之间有效衔接,助力数字经济行业可持续发展。