川观新闻评论员 朱炜琳

近日,国家互联网信息办公室发布《人工智能拟人化互动服务管理暂行办法(征求意见稿)》,其中两项条款尤为关键:一是要求AI拟人化服务提供者明确提示用户正与人工智能交互;二是对连续使用超两小时的用户进行动态提醒。这两项规定指向AI行业提质升级的一个根本前提——在技术日益融入生活的今天,为人机交互设立清晰边界,是引导技术向善、保障行业健康发展的基石。

随着人工智能技术持续迭代,情感陪伴、虚拟客服、互动数字人等拟人化服务迅速渗透至社交、医疗、教育、养老等多个场景。AI已不再是机械应答的工具,而逐渐成为能与用户建立情感联结的“数字伙伴”。

然而,AI拟人化服务在快速发展的同时,也伴生着内容安全、数据隐私、社会伦理等多重风险。高度拟人化的设计易导致用户,尤其是未成年人、老年人等群体产生非理性依赖,将AI建议视作权威,甚至以虚拟关系替代现实社交,引发心理隐患。数据层面,用户倾吐的私密信息存在泄露与滥用风险,更有不法分子借助AI仿冒他人实施诈骗。此外,一些企业刻意模糊人机身份,利用拟人化AI生成虚假内容,通过算法操纵博取流量,损害用户权益。

因此,此次征求意见稿正是对上述风险的及时回应,旨在为高速发展的AI拟人化服务套上“缰绳”,通过划定身份、能力、时间、情感与权益等多重边界,筑牢风险防控红线。例如,强制显著标识是从交互源头保障用户知情权与选择权,体现对个体自主的基本尊重;而两小时使用提醒,则传递出引导理性使用、防范行为成瘾的健康导向。

值得注意的是,明晰交互边界并非限制创新,而是为AI行业的可持续发展保驾护航。它将伦理、隐私、安全等抽象原则转化为具体可行的规范,使企业在开展拟人化服务时有章可循、有界可守,从而有效降低创新试错成本。

人工智能浪潮奔涌向前,一个边界清晰、运行规范的AI生态,才能更好释放技术红利,护航行业创新稳步前进,为“人工智能+”注入持续而健康的活力。