
新闻两点论 贾琪
近日,山东一家游戏传媒公司,采集离职员工工作数据生成AI分身,继续处理工作事务的新闻登上热搜。据媒体报道,该公司一在职员工称,这只是公司的一次内部测试,并经过离职同事的同意。
虽然当事人不介意,但不少网友却很破防。“同事被炼化了”“我的全部努力变成了数字燃料”“人离职了,AI分身还能被继续‘牛马’?”从现实技术发展来看,网友的担心并不是多余的,在此有必要厘清三个问题。
首先,谁拥有“数字我”?员工的知识、经验、风格,是长期投入时间与精力形成的个人无形资产。有律师指出:公司可以拥有工作过程中产生的聊天记录、邮件、工作流程等数据,但不等同于拥有“数字化的员工本人”。未经本人同意,公司无权将这些数据里的人格特征提取出来,训练成AI分身继续使用。
其次,使用离职员工AI分身是否侵犯人格尊严?个人信息保护法明确要求,处理个人信息必须遵循合法、正当、必要等原则,且以个人同意为前提。如果员工知情且自愿,使用数字分身具备一定合理性。可如果在员工不知情、未授权的情况下,公司擅自使用,就越过了基本底线。有律师明确表示,这侵犯了肖像权、声音权,乃至人格尊严。
再者,现有法律管得住吗?尽管本次尝试已获得离职员工的同意,但当事人是否充分知晓其被采用的个人数据的内容,个人数据的使用方式、使用期限及撤回权限等信息?个人信息保护法、民法典等要求,收集生物识别、行踪轨迹等敏感信息需单独同意,但工作风格、判断逻辑这些算不算敏感信息,并没有明确,还处于“无法可依、无规可循”的灰色地带。但从劳动法来看,离职意味着劳务关系终止。企业用 AI “占有” 员工劳动力,无疑违背劳动法基本精神。
这一新闻除了提醒法律风险之外,更触及人们深层次的担忧:AI复刻离职员工,本质是将人“数据化、工具化、永久化”,模糊人机边界、摧毁职业安全感。人是主体和根本,技术不是用来替代人,而是延伸人、解放人、补偿人。去年中国发布的《人工智能安全治理框架》2.0版,既关注技术层面的风险,也关注社会层面的衍生风险。
在人工智能、数字分身等技术飞速发展的今天,建立一套公平分配技术红利、缓冲摩擦阵痛制度设计,已不是未来选项,而是当下亟需。
【未经授权,严禁转载!联系电话028-86968276】

AI又好又不好。
能被复刻的只是重复劳动,不可复制的才是人的核心价值。