智道
聚焦前沿科技与法律伦理的交汇碰撞
栏目主持人:於兴中
▶ 未经授权 不得转载
文 | 戴昕
责任编辑 | 尹丽
有朝一日,人们将在手机上用到真正的“智能助理”——不是现在手里这种,用提示词召唤出来唠叨好几遍,也不一定能明白你想让它干啥,只会一个劲儿地说:“抱歉,请稍后再试!”真正的手机智能助理,应该像电影里早就演过的那样:可以帮我们高效管理日程,按时提醒,做好票务预订、路线规划、餐厅预约、医院挂号,甚至分析不同事务优先级、给出协调日程冲突的建议;也可以帮我们料理必要的杂务,无论是打印、复印,购买办公耗材,还是填写各种流程手续性报表;当然还可以提高核心工作任务完成的效率,比如做好基础信息收集,整理相关素材,甚至拟好初稿,只等我们再作完善、升华、画龙点睛……
对于广大手机用户而言,这算不算奢望?要让智能助理做到这些,当然首先需要上述功能在技术和工程层面能够实现。虽然眼下的手机助理自主点个奶茶、发个微信红包,就已经能成新闻热点,但这不意味着更强大的云侧或端侧智能体仍然离普通消费者十分遥远。尤其在见证了最近两年多智能技术的迅猛进展后,我们恐怕宁可别太保守。
但在技术能力之外,手机智能助理的推广甚至普及,其实还有一项制度前提:只有在广泛收集、处理用户个人信息(包括敏感个人信息)的情况下,手机智能助理才有可能为我们提供前述那样周到、体贴甚至善解人意的定制化服务。在何种隐私或者个人信息处理规则之下,我们会愿意接纳这样的智能助理,让其全面、深度介入自己的生活?
01
“最小必要”原则的边界
表面来看,这并非全新问题:今天的手机——或者更确切地说,通过手机终端为人们提供各式各样服务的市场主体,早就在全方位收集、处理用户个人信息了,而法律对此也已形成一整套规则。总体而言,当下隐私规则的核心原则是“个人控制”:商业主体提供服务,需要处理个人信息时,须以本人同意为前提;本人给出的同意可以自愿撤回;本人此前同意的信息处理目的或方式如发生改变,要重新取得同意;若涉及处理敏感个人信息等,还需要获得人们单独同意;等等。这套以个人控制为核心的隐私规则,对于手机智能助理而言,仍会够用吗?
如果我们考虑的只是现有的手机智能助理,那么答案大概是肯定的。当下手机智能助理涉及的最恶劣的隐私侵害行为,主要是其会在未经用户知情、同意的情况下开启“无障碍功能”权限,由此收集各类用户信息,并完成许多可能给用户带来财务和其他风险的操作。要约束这样的行为,固然在执法层面总有操作困难,但在规则层面其实并无含糊之处:这种权限滥用和个人信息过度收集无疑是违法的,而且其不但对用户造成严重风险,也并没有让用户真的享受到什么好处,因此必须保障用户的知情权和控制能力,不想打开时决不能私自打开,打开后体验不好想关掉,就必须让用户能够关掉。
但如果我们说的是未来“真正好用”的手机智能助理,那么主要以保障个人控制为落脚点的法律规则,意义可能就会变得有限。试想,如果真能在去医院就诊前就帮你整理好病历信息和用药历史,在参加会议前帮你整理好发言稿,在旅行前帮你详细做好攻略——面对这样的智能助理,谁能舍得把权限关掉?谁又会不舍得把自己的信息全盘托付?此时,不要说个体控制规则,就连更晚近提出的个人信息处理“最小必要”原则这类规范,实际用处都会变得颇为可疑:如果越高的定制化意味着越好的服务效果,到底什么是“最小必要”,就很难说清楚了。
02
当定制化秘书服务普及
因此,在等待好用的手机智能助理到来之前,我们或许真的需要花点时间,想想隐私的新解法。这首先需要我们克服思维惯性甚至惰性,多投入一些想象力。一直以来,法律在建构隐私规则时,之所以始终以个人控制为基础,其实主要还是因为这样比较简单:将个人信息想象为私人财产,谁能用、怎么用都由他自己说了算,这就不需要社会在整体意义上思考更复杂的方案。
但除了偏好简单规则的思维惯性之外,手机智能助理应遵循哪些超出保护个体控制的隐私规则,这个问题之所以不容易回答,还因为它离我们大多数人已有的生活经验确实太远。这种距离不是技术环境造成的——如今的普通消费者早已积累了大量网络购物、电子支付乃至使用社交媒体的经验,借助新闻曝光也能时常了解各类商家滥用个人信息、危害消费者权益的行为,这使我们对于在这些场景中需要何种保护,大概都有些想法。
我们大多数人真正缺乏的经验,其实和技术本身无关:哪怕在线下世界,我们也从来没有使用“个人助理”或者“生活/办公秘书”服务的经历。传统上,这些服务专属于如高级别官员、企业家、文娱明星等社会精英。而如果托技术进步的福,我们普通人也将能借助智能手机享受到专属的定制化秘书服务,那么对于这些对我们的生活细节几乎无所不知的服务提供者,我们应期待其行为遵守各种规范、受到哪些约束?这恐怕将会是让人们感叹“贫穷限制了想象”的问题。
实际上,信息和数字科技的进步,往往都会导致隐私问题从精英关切“普及”为公众忧虑。以更早些的人工智能热门应用——人脸识别为例,“刷脸”曾经是社会精英的特权,门卫看到领导通常就不用再查证件(否则“列宁和卫兵”的故事也不值得大书特书),餐厅看到名人则往往愿意为其免单。在享受这些特权的同时,“领导”和“名流”也会时不时因为脸的识别度太高而烦恼,想要“清净”一下,就得费力包裹严实、低调出行。如今,普通人在获取市场或公共服务时,也可用人脸识别完成身份认证,“刷脸”通行、消费的便利不再仅为少数人享有,但数据泄露后的骚扰甚至侵害则同样普遍化——这才使得人脸识别的隐私规范成为法律需要做一般规范的问题。
03
关于信任与“体面”的课题
而如果我们现在确实需要正面思考手机智能助理的隐私规范问题,那么一个可能的入手角度,或许听上去有些“八卦”:在历史上和现实中,那些先普通人一步用上秘书或助理服务的社会精英,在把自己工作生活世界的重要部分都托付给后者时,为后者的行为订立了哪些规则?
对于研究者而言,这其实是一个绝好的课题。而在没有充分调查研究的前提下,我的猜想是,除了针对特定类别信息的一些明确保密规则外,在个人助理与其服务对象(主顾)之间,最重要的规范首先与维持信任有关。“信任”是一个关系概念,在信任关系持续的基础上,主顾不需要对助理可能采取的各类具体信息处理行为作出细节控制,而可以在一般托付后,期待后者不背信弃义、为害主顾,并为促进实现主顾的利益自行合理决策。而为了维护这种信任关系,则需要一些框架性规范,特别是助理应避免将自身放置在利益冲突之中,或者在可能出现利益冲突时,应及时征求主顾的意见和许可,等等。对于手机智能助理而言,类似的信任规范确有建立的必要,而现实法律制度中本有一些可供参照的模版,例如信托、公司等领域的信义法规则等。
然而在信任之上,恐怕还有一类更微妙、在制度层面更难把握的规范,其关乎的用户诉求或可称为“体贴”和“体面”。举例来说,假如用户手机上的智能助理可以了解甚至推测用户的需求,知道用户最近BMI(身体质量指数)超标,在其下班到家之前,就已经点好一份热量较低的晚餐——而用户因为工作太忙,甚至根本没想起过要向智能助理提出这个要求。更体贴的是,在用户搭乘地铁回家途中,考虑到其身边别的乘客可能会瞥见用户手机屏幕,因此智能助理绝不会在这段时间里向屏幕上推送提示(“你最近胖了,应该注意饮食、别再大鱼大肉”);或者,它压根都不会给用户这种提示,只是“默默”地给他点上减脂餐——这就让人感到更舒服,不会有额外的心理负担。
现实生活中,特别有“眼力见儿”的秘书或助理,与主顾间恐怕就会有这种默契,而默契既来自对主顾个人的充分了解,也体现出对“人情世故”(即社会规范)的分寸拿捏。在人机交互界面,我们有可能指望这种体贴和体面吗?毫无疑问,即使能做到,这也不可能一上来就呈现为法律层面制定的统一规则,而会首先由企业在产品设计中周详考虑、谋求落地。然而一旦相关智能助理产品上市,其与用户在互动时的言行够不够“体贴”,能不能满足用户在人机界面同样需求的“体面”,会不会因“揣测”用户心思“过粗”而让其不悦,或“过细”而让其心里发毛,这些问题预计都可能成为个别纠纷乃至公众争议的诱因——由此,终究也就无法免于社会层面的规范和制度审视。因此,与信任规范一样,手机智能助理的体贴和体面规范,同样需要上升到制度层面加以考量。
(作者系北京大学法学院长聘副教授、北京大学武汉人工智能研究院研究人员)
END
视觉编辑 | 王硕 王雪
【未经授权,严禁转载!联系电话028-86968276】
