数据时代,拿什么来保护我们的隐私?丨数据政治

刘志毅2020-09-25 17:57

前些天,李开复的“口误”捅了企业数据隐私这一敏感话题的马蜂窝。9月24日,由于后台服务器的错误配置,知名游戏硬件制造商Razer雷蛇发生了数据泄漏。当互联网成为我们生活的基础设施,数据滥用与泄漏的“达摩克利斯之剑”无时无刻不悬在每一个人头顶。

我们身处一个数据时代,在我们每一天的生活当中,无时无刻不在与数据打交道,大量的数据应用围绕着我们人的行为做文章。从早上一睁眼开始,我们每个人都在产生数据,而这些轨迹与数据,在另一层面也组成了我们的商业价值潜力所在。

如何把握数据的公共性和数据的隐私性?在刘志毅看来,隐私保护不是不作为的借口,而是寻求算法规制的起点,我们要保护的是数据在成为算法决策依据后的公平和正义。

——编者

刘志毅/文  在众多近期关于数据隐私保护引发的讨论中,甚少见到关于数据隐私保护的基本逻辑的底层讨论,更多的是关于“数据隐私”的重要性和对于数据滥用危险性的担忧。因此,大多数讨论都停留于公共议题的喧哗之声和对于科技伦理的表面讨论。

事实上,这个议题背后涉及了两个根本性问题:第一,是数据价值在整个智能时代作为生产要素的实质,即通过数据挖掘以后的数据是如何使用的,以及如何作为新的知识产生的范式是如何对现实世界产生影响的。第二,现存的数据隐私保护的理念的核心目的是什么,以及怎么认识数据背后技术与人之间的关系?

须知,我们现在的担忧在20世纪八十年代的欧洲学术界就有相关讨论,经历那么多年时间后关于这方面的讨论,早已不是停留在数据安全和基础伦理的层面,很遗憾的是我们对此知之甚少。本文就试图从数据隐私保护背后的基本逻辑和认知论层面的挑战进行讨论。

“不打扰”的权利

关于数据隐私与安全的保护研究很多,但讨论其实质,包括对个人权利和自由的侵犯,自动化决策算法带来不平等的政治经济学主张,以及相关文件中包含的机器对人类进行控制和影响的相关内容并不多。

实际上早在1890年,美国人沃伦和布兰代斯就指出了隐私权的问题,认为新的发明和商业手段引发了风险,人们需要采取措施保障人格权,即“不打扰”的权利,认为“我们的法律是否在方方面面承认并保护隐私权,这一定会迅速成为法庭将要考虑的问题”。

2006年,欧文.舍米林斯基明确指出要重新审视布兰代斯的隐私权,认为应该进一步设定关于深挖个人信息的法律责任。而隐私权的出现则正在改变人-技术与世界的关系,带来了新的视角。可以认为,人通过技术与世界关联产生了对人类世界新的诠释,而数据隐私权试图对这种诠释的范畴进行重新定义。

我们今天讨论的所有相关文件都可以从这个角度去入手,即数据隐私是可以看作成一种试图将解释世界权利的方式和权利回归到个体还是给到机构(商业组织、政府或者国家)的选择,而不只是停留在个人权利的被侵犯层面,个体权利需要通过数据权利的实现得到延伸而非剥夺,社会的公平正义可以通过数据权利得到延伸而非放大歧视或者偏见,这是我们的立足点。

讨论数据隐私保护相关的议题,《通用数据隐私保护条例》(GDPR, General Data Protection Regulation)是必须关注到的文件。这份文件在2016年4月通过,在2018年5月25日生效。事实上,这份文件是在《数据隐私保护指令》(Data Protection Directive)文件的基础上生成的,后者是1995年通过的欧洲联盟指令,用于规范欧盟范围内处理个人数据的行为,是欧盟隐私法和人权法的重要组成部分。

先看《数据隐私保护指令》这份文件,在欧盟《数据隐私保护指令》中第15条是非常特殊的,它赋予了自然人一项有条件的权利,认为自然人可以不受到基于自动化分析生成的决策的影响,因此要求自动化的决策(也就是算法决策)必须要首先得到充分的评估后才能使用,且自然人拥有了解这些基于自动化分析生成的决策所涉及的逻辑的权利。

这个条款的精髓在欧盟发布的《通用数据隐私保护条例》中也得到了继承,在新的条例的第22条中不仅规定了类似权利的落实,还补充了对从事自动化决策的数据控制人增加新的信息披露业务的要求,认为所有的算法提供商和数据使用权利放,从一开始就需要在数据隐私保护和程序设计方面满足合规性,其核心目标在于“确保在信息系统开发的整个生命周期中切实考虑利益相关者的隐私保护和权益保护”。

从这一点可以看到,欧盟的数据治理思路相对于20年之前的变化。如果说《数据隐私保护指令》是一个从数据隐私保护出发,对机器自动化决策进行治理的规范文件,《通用数据隐私保护条例》的立法目的并不是关注机器的使用,而是要彻底通过权利的赋予方式来重塑人和机器的关系,这也是数据隐私相关问题的实质,即我们建立一种怎样的符合人类社会发展需要的人机交互关系。

《数据隐私保护治理》以及法国在1978年所颁布的《数据处理、文件和个人自由法案》都源于对机器决定论引发的人类社会发展的担忧,因此更多的是一种消极治理的思路(后者对所有自动数据处理的司法、行政或个人决定都一概禁止)。

可以说,它们的基本逻辑是一种保守主义思想的体现,即确保人类维持对自身造成重大影响的决策的重大控制并为之负责。因此《数据隐私保护指令》将某种类型的决策行为作为制约要点而并不是数据的处理方式放在严格的质量控制之下,这很类似我们在法学中所强调的“自然正义观”。

我们再来看以数据隐私保护闻名的《通用数据隐私保护条例》,与数据隐私相关且继承了第15条的是第22条,我们对这个条款的主体内容进行分析来看数据隐私保护的实质。其条款规定“数据主体有权反对此类决策:完全依靠自动化处理——包括用户画像——对数据主体做出具有法律影响或者类似严重影响的决策”,除非满足以下条件:

(1)决策对于数据主体与数据控制者的合同签订或合同履行是必要的;(2)当决策时欧盟或成员国的法律所授权的,控制者是决策的主体,并且已经制定了恰当的措施保障数据主体的权利、自由和正当权利;(3)当决策建立在数据主体的明确同意基础之上。可以看到,这个条款的规定与《数据隐私保护指令》的内核思想一脉相承,不仅对机器错误和算法歧视带来的社会不公平和偏见怀有很大的担忧,还直接将用户画像(或者叫自动化侧写技术)作为命题进行定义和分析。

但我们要看到的不仅是保守的一面,还要看到相关条例中所涉及的关于权利进路的思维,即相关条例承认一个显示就是自动化算法已经广泛用于私营部门和政府部门,而相关的应用是可以带来有益于社会的正向福利的。

相关的法条通过规定当事人同意、法律授权和合同约定等方式为自动化决策和数据安全提供了实际的路径(虽然很多方面的讨论尚未完善)。更进一步,在《通用数据条例》中提出了数据最小化原则和适当性原则,第25条规定了控制者有责任采取适当的技术与组织措施,以保障在默认情况下,只有某个特定处理目的所必要的个人数据被处理,这种责任适用于收集的个人数据的数量、处理的限度,储存的期限以及可访问性。

换言之,个人数据应该保持“精简和锁定”的状态。这与《数据隐私保护指令》中仅仅强调数据信息安全不一样,强调的是从软件或硬件设计到业务策略和商业实践整个链条的原则适用性。

具体到数据隐私问题,第25条背后展现出来的数据伦理考虑的核心思想,就是以增强隐私数据隐私保护技术为基础,将保护隐私的理念设计到相应的软件系统中。换句话说就是将人类的伦理价值观嵌入到技术设计的过程之中,这也是我认为未来解决数据隐私和伦理问题的核心,即将行为的正义性和伦理道德的合理性通过技术来嵌入,而不是仅仅通过保守的数据隐私保护的方式去解决。

事实上,这样的思想逐渐正成为AI伦理或者数据伦理研究的重要路径,无论是雷登伯格提倡的“信息法制(Lex Informatica)”,还是希尔德布兰特和库普斯所提倡的“环境性法律(Ambient Law)”,都涉及到了相应理念,认为跨学科的技术应用的方式能够比传统法律更好地塑造人类社会与人类行为。

数字世界运行逻辑的认知重构

理解这一点后,我们可以提出我们的理念,即数据隐私保护和算法决策等问题的核心在于,是否我们可以通过程序设计的范式来实现人类权利的保护,以及相应伦理道德价值观在技术层面的落实。

当然,我们可以预言到相应的阻碍到底有多大,包括法律语言的措辞和语法无法转换、复杂晦涩的法律权利和义务的范围难以说清以及交叉数据隐私保护和算法透明性等问题。但可以认为,这条路径在科技向前发展的情况下,几乎是唯一可以实现权利保护和社会发展平衡的路径,与其陷入无休止的伦理道德争端,不如考虑技术路径如何实现这样的复杂系统。

更进一步说,数据分布在社会的各个领域,从个人生活到公共服务领域,再到国家、政府的治理以及决策等环节,数据的使用也非常普遍。

微观层面的个体都是数据的携带者、生产者和使用者;中观层面看,对数据的挖掘和使用就是智能化算法最主要的工作,也是AI能够对金融、零售、医疗等行业进行赋能的原因。宏观层面来看,涉及国际政治、军事和经济都会使用到不同的数据。

可以看到,在数据生产和被算法使用的过程中,两个过程是同时进行的:一方面,算法将自然界中的事物进行数据化,即人类存在的实体世界转换成了新的样式;另一方面,数据的产生形成了新的自然界,与现实的世界进行深度互动。

正如斯蒂格勒所说,虚拟现实的各种代具都是由“显像银幕眼镜”和“数据库手套”组成的,眼镜中呈现的虚拟空间要么根本不存在,而只是从其整体物理特征上模拟出来;要么存在于别处,但在眼镜与手套使用者的真实所在地被虚拟复制出来。

换言之,我们正处于真实世界和数据世界叠加的状态中,数据隐私的问题从根本上来说并非只是一个单独权利的保护,而是对数字世界运行逻辑的认知重构。

这带来的是数据作为生产要素的特殊性,它改变了既有世界的本体论、认知论与伦理价值观:从存在论的角度看,人类存在其中的世界已经产生了数据这种新的要素,以及智能化机器这样非自然生成物,因此一种新的存在环境被生成。

具体来说,存在的轨迹以数据的方式呈现,从技术哲学的角度来说,数据带来了“在场性”的变化,即通过数据化的技术让人的在场性被拓展,使得透明性退场。例如通过图像识别技术重现人们的运动轨迹和时间序列,或者通过对商场的数据挖掘使得人们的行为能够被引导。

这样的方式改变了人们的行为逻辑,也是数据要素最重要的价值;从认知论的维度来看,人类面向的世界不再是人改造自然的简单关系,而是生成了新的物种和要素,感知世界的方式和自我认同的方式也在改变。

算法可以通过数据的调节,来调整数据自然里的出场次序和显现的影像。例如,脸书通过算法的改变,对自身的beat365手机版官方网站内容进行不同推荐,这样的结果不仅是商业层面的,也是认知层面的,这才带来了后续跟剑桥分析公司的丑闻;相应的,这也就带来了数据伦理视域的视角变化,即从人、技术与自然世界的关系来重构我们的伦理观念。

最近发生的一系列关于数据隐私的新闻事件,加深了个体对隐私问题隐私的担忧,同时依赖人口红利的互联网经济和基于机器学的决策系统的复杂和不透明则加深了这一担忧。如何发挥好相应监管条例的前提条件就变得苛刻起来。

这里不得不强调一个事实,就是不管是算法还是监管措施都在指向算法“透明度”,而事实上,对于现有的以深度学习为基础的人工智能算法来说是几乎不可行的,相应的研究和立法试图创造这样的不可行的也不符合用户需求的透明形式的权利,其结果是非常危险和毫无意义的。透明度的权利并不一定能够确保实质性的竞争或者有效的补助措施,更多是在感官上给大众一种监管有所作为的体现,而并没有考虑事实上的技术和应用情境。

相对应的,《通用数据隐私保护条例》只是在原则层面提供了“公平和透明地处理个人数据”的说法,这样为数据隐私保护法律提供了一个比较开放和灵活的尺度,去衡量数据隐私问题的影响并让算法决策系统承担责任。除此之外,条例中的其它条款更具备可操作性,包括数据隐私保护影响评估、数据可移植性、数据认证和数据删除等。

换言之,我们可以根据实操的可行性和原则的方向,引入更多可以实施的权利方向进行讨论(例如“合理推断权”等),而不是坐等一个完善的条例出现或者毫无实操意义的指导建议成为讨论的热点。

总结下,我们对数据隐私和算法决策的伦理进行了解读,即在于我们采纳了一种行为主义导向的方式去看待数据隐私。一方面,我们承认个人数据权利的重要性和相应监管机制建立的必要性。另一方面,我们也要减少一刀切的“规范性断联”以及“监管过度延伸”的情况出现。

隐私保护不是不作为的借口,而是寻求算法规制的起点,我们要保护的是数据在成为算法决策依据后的公平和正义。

换言之,我们承认技术与伦理的双向调节作用:一方面,我们认为技术通过对物质环境的改造构成自由,在这种物质环境中存在着数据这一特殊要素,人类正在认知这样的数据世界并形成新的伦理范式。另一方面,技术与人类正在形成特殊的连接,这种连接让人们对技术的发展积极看待的同时报以警惕的心态,同时也在利用技术调节来为人类社会的道德发展制定新的规则和创新的诠释空间,即将非人类的要素(如数据)纳入到道德体系中去考虑。

因此,数据隐私问题与其说是商业权利跨越了道德门槛的问题,更深刻的理解是人类为了实现更大范围的正义(不仅包括传统世界,也包括数据的非自然世界),不得不提升自身的技术能力和修正伦理范式的过程。我们不仅要关注技术引发的伦理问题,也要看到技术对伦理的助推作用。

(作者系数字经济学家、商汤智能产业beat365官网手机版主任)

版权声明:本文仅代表作者个人观点,不代表beat365手机版官方网站立场。

beat365手机版官方网站