3月23日,霍启刚在个人社交账号上发文,称自己的形象遭到AI盗用。
现阶段AI技术越来越发达,但是利用AI来传播虚假信息的行为也越来越猖狂,最近就有业界的一些朋友投诉,说有人未经同意就盗用他们的样貌和声线,制造假信息、甚至放到商业用途。 说实话,我自己也感受很深。刚刚过去的周末,又发现很多盗用我形象的AI视频,他们提取了我的声线、利用我的样貌生成短视频,但是里面的内容完全不是我的观点,连我同事都说看了一段时间才发现原来是AI生成的,这样的信息实在是误导观众。甚至曾经还有些短视频账号利用我之前发表的关于描述香港情况的内容,进行二次剪辑制作,用来宣传香港移民渠道这类的内容,我很担心有人因此上当受骗导致钱财损失。曾经有一次,我去内地考察,回程的时候在高铁站看到我的肖像出现在一个品牌店铺的门面,但是我和这个品牌根本就没有任何关联。 事实上,过去半年随着AI技术的普及,这类情况越来越夸张,至今我已经处理了几千条相关的假内容,还要安排同事专职跟进,每天都要投诉反馈,但是每天依然有非常大量类似的新发布,实在是很让人困扰。 霍启刚(资料图)。图源:人民日报客户端 未来AI成本再降低的话,这类鱼目混珠、甚至诈骗的手段只会更多、更猖獗,会严重影响个人声誉和权益。科技的发展不应该以牺牲个人权益为代价,希望未来对这类虚假信息的监管更加严格,也想提醒大家,在现在这种AI迅速发展和应用的时期,要更加注意甄别网络信息,防止上当受骗。 |
有演员被“AI换脸”侵权
演员王劲松曾发文公开控诉其肖像和声音被AI技术恶意盗用:太可怕了,视频、声音、口型完全看不出来真假。(此前报道)
有网友反映某平台AI短剧使用了杨紫的脸。3月20日下午,杨紫工作室发文回应称,某作品未经授权,利用AI换脸、深度合成等技术,擅自使用杨紫的肖像制作并传播视频内容的行为,严重侵犯杨紫合法权益。目前,杨紫工作室已委托律师对侵权内容进行取证,并将通过法律途径追究到底。(此前报道)
法治日报律师专家库成员、北京市康达律师事务所合伙人罗娟表示,滥用AI换脸、声音克隆主要涉及民法典第一千零一十八条(肖像权保护)、第一千零二十四条(名誉权保护)。未经同意商用他人肖像、声音,直接侵犯肖像权;若生成内容虚假误导(如虚假代言、不当言论),会损害他人名誉权。
网友评论
编辑 | 咕噜
来源 | 新闻晨报、@霍启刚、法治日报等
【未经授权,严禁转载!联系电话028-86968276】
