
新闻两点论 宋凯
最近,一段“外国教授怒斥学生使用AI写作业”的视频在多个平台热传,不少网友拍手叫好,还有老师转发给学生当反面教材。可没想到,事实却是——连这位“教授”本人,都是AI生成的。
类似的“真假难辨”画面,越来越多闯入公众的视线。猫狗互动、奇迹瞬间、温情救助……那些曾经需要“刚好被拍到”的巧合,如今被算法轻松复刻。网友们边看边笑,却不知道,自己的情感正被AI精准拿捏。
AI视频不是洪水猛兽,但“未标识”的AI内容,却模糊了真实与虚构的界线。过去人信奉“眼见为实”,因为视频的制作门槛高、造假成本大、可信任性强,而如今AI已能让不存在的场景轻松“真实发生”。如果辨别的门槛越来越高——靠网友们逐帧分析、放大截图去找“破绽”,久而久之,人们可能陷入三种状态:要么被动相信,要么无力求证,要么干脆放弃。那时,最可贵的“信任”就会成为稀缺资源。
这个现象,已引起国家相关部门的重视。今年9月1日起,国家网信办等四部门联合发布的《人工智能生成合成内容标识办法》正式施行,明确要求——所有由AI生成的文字、图片、音频、视频等内容,都必须“亮明身份”;服务提供者在上线内容前必须核验标识,平台也要在传播端加强审核,对“未标识或疑似AI内容”添加风险提示,从源头阻断虚假信息的扩散。
这意味着,AI创作者不能再模糊身份“假装真人”,平台也不能“睁一只眼闭一只眼”。对创作者而言,无论是使用AI绘画、AI视频还是AI主播,只要规范标识,就能既创新又合法。对平台而言,这是一次提升治理能力、建立用户信任的机会;对公众而言,更是在建立一道防止被误导的安全屏障。
遵纪守法是每个公民的责任和义务。当创作者沉浸使用AI的喜悦时,脑子里千万不要忘记绷紧“标识”这根弦,如果人人不遵循规则,迟早有一天,自己也会信了那只救人的猫、那位怒斥AI的教授。
【未经授权,严禁转载!联系电话028-86968276】


不管是做视频还是发内容,用了AI就该说清楚,这既是规矩也是责任,不然最后自己可能都要被假信息骗了!
我看是太多人不晓得什么叫边界感!AI是一种工具,不是让你没有底线!
A1多场景以假乱真,仅靠自觉性和审核是不够的。法治社会,还要从立法上完善提升才行。
AI可以生成“真实感”,但不能替代“真实性”。在算法编织的幻境中,唯有清晰的标识,才能让我们不至于迷失在自己创造的“真实”里。
是不是AI生成的视频,或许都值得点赞。AI无过,AI双刃剑,AI代劳并不少见,AI为某些人带来了“捷径”、也为有些人带来了烦恼……善待AI,善用AI,多一些怒斥“AI代劳作业”的教授,为“真假”把关。
AI作品足以以假乱真,千万要记得标注清楚,以免混淆视听,真假难辨。