原创陈佳欣上海市法学会东方法学收录于合集#智慧法治11个
在大数据时代,对隐私的窥探已从个体形态向群体形态转变,对数据的处理利用已不以个体识别性为前提,用户标签下的价格杀熟、信息茧房、算法囚徒等问题已带来群体层面的隐私侵害,由此产生隐私及隐私利益的群体形态。需对隐私的群体形态作出法律回应的逻辑起点是,个人信息保护理论和制度框架难以对其周延。法律应以维护群体共同权益、减少歧视对待、平衡数据共享为三大核心回应点,聚焦于“隐私数据化”的过程,不通过增加新的数据类型或受保护群体,而是对整体性和部门性的保护路径进行扩展:一是完善用户标签下的数据权利,二是强化处理者的数据义务,三是构建数据利益平衡机制,以实现个体维度向群体维度、个人本位向社会本位的隐私保护转变。
引言:大数据时代下隐私群体形态的产生
在数据价值日益多元、隐私利益相互关联并产生群体形态的大数据时代,数据处理的对象已从个体转向群体,个人信息保护不再是预防识别个人的问题。若仍遵循传统范式,仅将隐私保护理解为个体维度的利益、单纯给予个人主义的保护,已然无法解决大数据时代面临的隐私困境。
(一)
从“隐私的个体形态”到“隐私的群体形态”
分重组的各种数字轨迹,就可形成“超主体”的“统计学身体”;其四,各种广泛使用的工具全天候、全覆盖地记录着人们的行迹和信息,并将记录提供给第三方,庞大而普遍的数据收集形成了一个新型的敞视社会。
(二)
对隐私的窥探从个体形态向群体形态转变
(三)
对隐私的侵害可在不识别个体的情况下进行
一、困境:隐私群体形态带来的隐私侵权新情形
如前所述,大数据时代下,隐私的表现形态从个体扩展至群体。隐私群体形态的产生,带来了隐私侵权的新情形,从而给现有隐私保护造成困境。原因在于隐私及隐私利益的群体形态,并不以数据内容的涉他性和危害范围的广泛性为界定标准,其内涵是,数据处理者通过大数据技术对隐私信息进行标记、分类、分析和评价(以用户标签为中心),由此生成的群体被以特定方式对待(以算法歧视为典型),从而在群体层面发生隐私侵害。基于用户标签的形成和应用过程进行分类(图1),三种隐私侵权新情形下的隐私保护困境亟待破局:
图1用户标签系统功能架构图
用户标签对特定群体权益造成侵害
用户标签,是一种对群体行为特征模式的概括、总结与预测。基于用户标签技术形成的数字业务,如用户画像、用户群体分类、市场需求分析、定向内容投放、定向定价、个性化推荐机制、自动化决策等,可为平台企业带来巨大的正外部性效应。然而,平台企业在大数据技术下所形成这种“超级权力”,
用间接用户画像对于平台企业而言不仅能够有效规避个人信息收集带来的侵权风险,也能够实现精准营销带来的获客和成交。而个中侵害往往比个人信息侵权的波及面更广,它通过标签的形成应用进而侵害特定群体的权益。
用户群体分类导致特征群体被歧视对待
除了用户标签技术本身带来的侵害外,基于用户标签形成的平台内部应用—用户群体分类,往往容易造成因共同特征形成的某一类群体受到歧视和差别对待。此外,网络服务中因用户群体分类导致某一特征群体受歧视对待的情形也十分多见,如用户提交了自己的消费记录、薪资水平等信息,却被用户标签定位为“缺乏足够消费能力”,使得实际能够获得的信息服务的内容和类型受到限制。
个性化推荐机制使群体层面的利益受到减损
用户标签的应用又分为内部经营使用产品和外部自动化产品,二者的实质都是对群体形态隐私的利用,外部自动化产品则是对内部经营使用产品的落地应用,与平台企业获利机制直接挂靠。用户画像、用户群体分类是内部经营使用的典型方式,而外部自动化产品中以个性化推荐机制的应用最为广泛。
个性化推荐机制,是根据用户画像做出“千人千面”的内容、商品等展示功能。其通过挖掘和抓取个体在数字世界中“渗漏”下的行迹、喜好、需求,对个体的认知和行为进行分析和判断,从而干预和改变个体的行为决策;进一步地,它通过勾连起数据世界中一个个的个体“数据点”,就个体性的行为轨迹分析得出群体性的行为规律,从而在群体层面施加影响和控制。可见,基于算法技术的个性化推荐,实际上是用户群体共同以隐私让渡换取了个性化,其通过影响个体所处的环境进而侵犯群体利益,使得群体中的个体、由个体形成的群体都无法逃脱“算法黑箱”的裹挟。同时,用户群体作为隐私信息数据主体,其从中获得的利益却远远低于平台企业通过大数据技术生成的内外部应用产品取得的利益,二者之间完全不具有对价性。
二、破局:从个体维度到群体维度的隐私保护转变
逻辑起点:个人本位信息保护理论的不周延性
从国内外隐私保护立法来看,“隐私”是一项个体维度的概念,其内涵是在公私领域二分的基础上确定的。相应地,隐私保护的制度、技术和手段也就侧重于个人层面,我国民法典中规定的“隐私”也强调这一概念的排他性和私密性;从1980年的OECD到如今的GDPR,数据保护也无不与个体密切联系,数据权利也在个人权利的框架之内。而上述个人本位的信息保护理论难以周延隐私群体形态及其之上的利益,表现在以下方面:
1.用户标签不需要识别到个体
个人信息保护法强调个体的不可识别性,侧重在个体维度保护数据主体的隐私利益。其中的隐私保护逻辑为:只要无法通过个人信息不法识别到个体自身,就可以保障个体的隐私数据利益不受侵犯,即以保护个人对自己数据的访问和使用的控制为中心。在此基础上产生的保护隐私的方式主要是对数据进行匿名化处理或者在使用隐私数据之前征求知情同意。
也需注意,在当下隐私保护规范中,匿名化处理确实能达到保护个人隐私的目的,但聚合层面的数据揭示了某个群体的特征,若对此还只强调通过匿名来保护个体形态的隐私,而遗漏保护群体形态的隐私,显然是不充分的。匿名化技术在应对个人层面之外的隐私侵害时,作用是极其微弱的。
2.个体无法及时感知被分类和歧视
当前数据保护主要是以数据控制者和数据主体之间的合同关系为前提(主要表现为用户协议和隐私政策),但在大数据技术如用户标签处理模式下,这种一比一的平等关系已不复存在。
一方面,个体往往是在不知情的情况下因某种隐私信息特征的存在而被划入自己并不知晓的群体,也就是群体成员不知道自己实际上是群体的一部分,不知道自己个人的隐私已融入形成了群体形态的隐私。此外,算法设计者还可以自主设计“标签”和“群体”,这就意味“群体”的存在和构成可能完全超出群体成员的预见和控制范围。然而群体形态的隐私利益是显而易见的,即使群体本身不受法律保护,但其共同特征也往往被当作商业机密来保护,能为平台企业带来具有再生性的数据分析利用的高度价值。
另一方面,由于群体歧视过程不可见、机理不公开,个体往往不能够及时感知自己因被标签分类受到歧视,受损群体也很难承担证明责任。相较于个人隐私泄露这一损害结果,大数据分析作用于群体层面的共同损害往往是隐蔽而长期的。就如同法国哲学家福柯(Foucault)提出的“全景监狱”,囚犯看不到监视人,彼此也缺乏信息沟通,但狱卒监视的视线遍及所有牢房,故即便监视人不在场,囚犯们也会认为在被监视而不自觉地接受外在的控制并约束自己的行为。比如算法分类可以在符合匿名化的基础上对群体进行控制和引导,这些影响最终会传导至个人。这种有针对性的“监视”很难被及时感知到,但仅仅是被分析就可能会对隐私利益产生负面影响。然而,现有个人信息保护对此类问题的解决却存在着局限性。
3.自动化决策反对权的对抗作用有限
个人信息保护法第24条虽然规定了对自动化决策的反对权,但这种权利的对抗作用仅施加于结果层面,在分析层面(如用户画像的形成过程)就很难用自动化决策反对权实现保护。更何况,自动化决策只是用户标签的一种利用形式,隐私的群体形态不仅出现在自动化决策等类似应用场景下,在其他场景中亦有呈现,如医疗和生物大数据下群体形态的隐私。
核心要素:社会本位下的利益平衡考量
对隐私的群体形态进行法律回应的理论逻辑,具备三大核心要素:以群体共同权益为保护对象、以减少群体被歧视对待为价值导向、以平衡数据保护和数据共享为基本进路,从而实现大数据时代下的隐私保护、数据治理由“个人本位”向“社会本位”的转变。
1.以群体共同权益为保护对象
在大数据时代,相对于个体隐私数据,基于大数据集合分析得出的对群体的“推断”才具有真正的利用价值,换言之,用户标签内容所包含的社会关系是用户标签具有群体性权益的根本原因。
其一,从内容来看,通过大数据分析所得出的“推断”是一种典型的群体形态的隐私,大数据场景下提到的数据泄露实际上就是对“推断”这一分析成果的泄露,而非对源数据——个人隐私数据的泄露。其二,从性质来看,“推断”是关于某一类群体的特征数据,不满足个人隐私数据定义中的“识别”标准,即群体形态的隐私是无法复原至个人的、“去个体化”的隐私。其三,从损害结果来看,“推断”的滥用所造成的侵害远远超出了个人范围,往往是群体乃至社会公众,因此群体形态隐私的风险承担者是群体而非个人。
上述三重原因共同证成了对于隐私的群体形态应以群体共同权益为保护对象。进一步而言,其保护重点并非个体对自己隐私数据的访问和使用的控制,而是置于群体形态下,群体和群体成员对群体层面风险的知情、拒绝和对抗。这种表现可以是了解用户标签内容、用途、目的等事项的数据处理知情权,可以是拒绝被标签、撤回生成用户画像等数据处理限制权,还可以是反抗因大数据分析技术遭受的歧视和差别对待的权利。
2.以减少歧视对待为价值导向
不论民族、信仰、性别、年龄、文化程度、职业、收入等,每个人都应当都是平等的。然而在大数据时代下,人却可能因为用户粘性、消费能力、社交属性等因素,在平台算法中被区分等级。一个个自由平等的法律主体,在平台那里却成了质量各有优劣的用户,这种歧视和差别对待,有违现代法律以权利和公平为核心的规范目标,应予反对。
3.以平衡数据保护和共享为基本进路
为群体形态的隐私数据处理利用提供保障机制和救济渠道,进一步保障处理过程的公平性、防止超出处理目的以外的滥用。
三、出路:“隐私数据化”中权利义务体系及利益平衡机制的完善
图2数据权利义务体系(用户标签形成及应用过程)
完善用户标签中主体的数据权利
1.细化数据处理知情权
需要明确的是,用户对数据处理更进一步的知情权、平台对标签的告知义务的必要性在于,“算法黑箱”下平台和算法设计者往往也无法确定最后会生成什么样的标签,最终的算法审查也难以避免此种疏漏,因而即时的通知可以更好地补足算法自动性的缺陷。
2.设置数据限制处理权
对此,应设置用户可拒绝该事项的明确性权利——数据限制处理权。在前述数据处理知情权、标签告知义务的基础上,用户有权要求更改不合理、不适当的用户标签,有权选择拒绝、退出或撤回对用户画像、个性化推送的同意。在这种权利的基础上,平台企业有提供该种拒绝、退出或撤回的途径的义务,如在“设置”栏目中增设用户可自主勾选是否同意用户画像、个性化推送的选项,并不附带任何条件或限制性影响。
面对大数据时代下深度挖掘、广泛利用数据所带来的风险,数据限制处理权能够弥补当下个人信息保护法中知情同意原则、删除权等制度的保护空隙,从而增强数据主体面对群体层面隐私侵害的抵抗力。
3.增加合理推断权
具体来说,合理推断权能防止个人不被根据“推断”的某种属性进行分组,并保证得出的“推断”是准确的,从而保护人们免受不合理的推断和基于不合理推断所作的决策,包括价格歧视和用户画像。该权利所能提供的新保护将比单纯的防止歧视、隐私侵犯和不透明的算法措施更进一步,不仅能够减少群体层面的隐私利益侵害,也能在群体形成并用于特征分析或决策时及时通知个人,以便实施有效救济。
强化数据分析中处理者的数据义务
1.明确用户标签管理义务
除了数据处理知情权对应的标签告知义务外,数据处理者(平台企业)也负有对用户标签的管理
义务,主要分为两个层面:一是积极义务,应完善记入用户模型的兴趣点规则和标签类型分类,并在数
基于此,可要求数据处理者定期进行“偏见”测试,避免基于残疾、年龄、性取向、性别、职业、收入等方面的用户标签带来的差别待遇;定期进行“目的中心”检测,以判断处理者是否超越所述用途和目的对用户标签进行滥用。“偏见”测试和“目的中心”检测可以由第三方数据治理机构提供并进行监督,平台企业需公开结果,“非歧视”“合目的”报告结果也能为平台企业树立正面形象,有助于实现用户和平台企业的共赢。
2.规范算法解释义务
具体而言,规范平台企业的算法解释义务应从三个角度切入。首先,在算法投入应用前,平台应引入第三方对算法进行合规评估;其次,在算法合规完成后,平台应向用户公开算法的计算原理、投入领域和应用目的;另外,在算法应用过程中,平台应设置途径使得用户有权拒绝和撤回被算法处理。相比于事后的算法解释私人赋权制度,事前的算法告知义务更能合理平衡个人信息主体与公共利益之间的复杂关系,能促进“有意义的透明度”之提升,为算法技术下的群体性权益风险提供有效规制。
3.遵循技术向善的伦理规则
在当前的法律保护措施并不完善的情况下,平台企业作为大数据技术的使用方,不要只把用户数据当作流量变现的渠道、以企业效率为绝对优先,而是要在企业获取利润和服务于人之间寻求一种平衡。平台企业需要注重关于用户隐私侵权的人文关怀、兼顾用户的隐私安全和发展性权利,积极打造向善的企业核心竞争力。其核心是要搭建并逐步完善数据伦理体系和人工智能伦理体系,形成符合我国数字经济发展情况的数据采集、传输、存储、分析、使用和人工智能技术应用的专业伦理标准,让技术更有温度。
构建数据利用中的利益平衡机制
在大数据时代,数据已成为与土地、劳动、资本、技术并列的生产要素时代,跳出单个用户的视角,整个用户群体其实都是数据的生产者。因为数据的“开采”是需要全体用户共同参与的工程,离开任何一个个体的数据,数据作为生产要素的质量都会下降。同时,用户也需要用数据换取效率和服务。在此意义下,用户和平台企业之间的隐私数据利益并不是完全对抗、此消彼长的,盲目遵循“保护第一”也有悖于这一时代的共享性。故应鼓励构建数据利用中的利益平衡机制,以实现数据保护和数据共享的平衡。
1.增设数据利益共享渠道
利益共享制度、交易制度的完善是共享和交易顺利开展的前提,法律应当鼓励平台企业构建数据所得收益穿透分发给用户及用户群体的机制。如此,通过利益共享渠道,平台能更加合法合规地进行数据利用、释放数据潜能,还能有效减少第三方利用爬虫等技术不当获取数据的情况;用户及用户群体也不再只是让渡大数据分析下的隐私、隐私数据化利益,而是真正能够基于相应数据所有者的身份,与平台企业实现数据价值的共享。
2.激活公共数据信托制度
出于信托财产价值考虑,在数据信托制度中的“数据”往往不是个体的数据,而是海量性、聚合性、群体性的数据。数据信托便可由“数据处理者”中心转为“数据所有者”中心,由用户及用户群体作为受益人。如此,激活公共数据信托制度对数据资产的作用,既可实现对群体形态隐私利益的保护,又能释放数据共享的巨大潜力。
3.联动个人信息保护公益诉讼
个人信息保护法规定,提起个人信息保护公益诉讼,需同时满足违法处理个人信息和侵害众多个人的信息权益的条件,且诉权主体为人民检察院、法律规定的消费者组织和由国家网信部门确定的组织,同时不影响个人通过私益诉讼维护自身利益。可见,对群体形态隐私的保护,能够被个人信息保护公益诉讼的制度内涵所包容;对群体共同利益的维护以及实现群体的反歧视、多方利益平衡,与个人信息保护公益诉讼的社会本位特征、公共利益属性不谋而合。且现有个人信息保护公益诉讼案例中已有涉及保护群体形态隐私的判决,如2023年最高检发布的个人信息保护检察公益诉讼的典型案例(表1):
表1个人信息保护公益诉讼典型案例(基本案情)
上表四个典型案例中,对平台企业的诉因主要集中于数据采集前的告知义务和数据利用后的处理义务。具体而言,事前告知应当及时、全面、准确,以用户同意为采集前提,不得强制;事后处理方面,平台企业要定期进行删除、不得不当利用,用户则有权请求告知具体应用内容和方式、请求删除等。这恰与群体形态隐私保护中用户的数据处理知情权和数据限制处理权对应。可见,当下的个人信息保护公益诉讼对群体形态隐私利益的保护具备适用张力。换言之,可扩宽对于平台企业的诉因,如起诉平台企业不当使用用户画像、用户标签不合理、未设置拒绝个性化推荐的选项、对群体差别对待等行为。
同时,诉讼主体方面,除了一般个人信息保护公益诉讼中的三类主体外,还可以激活公共数据信托制度中的数据财产委托人、受托人作为诉权主体;举证责任方面,遵循举证责任倒置规则,如被告需证明用户标签和差别待遇之间没有因果关系,或即使发生差别对待也具备合理性、是以必要和相称的方式追求合法目标,如果这两个条件都不能成立,那么无论被告的主观目的为何,都需承担歧视的责任;赔偿认定方面,主要根据标签涉众面、标签设计合理性以及对用户的限制性程度等标准,综合认定赔偿数额。由此,通过上述方式联动个人信息保护公益诉讼,推动对群体形态隐私保护的事后救济,从而进一步平衡用户群体和平台企业在数据分析和应用过程中的地位和利益。
结语
随着大数据技术的高速发展,个人本位的隐私保护法律框架难以满足时代需求。当下的制度设计和技术手段虽能为个人隐私提供较为完备的保护,但在数据资源价值日益多元、隐私利益相互依存、并产生群体样态的大数据时代,隐私保护、数据治理若还停留在个体层面是不现实的。大数据时代下,应通过扩展整体性、部门性的保护路径、完善“隐私数据化”过程中的权利义务体系和利益平衡机制,从而推动隐私保护、数据治理从个体维度、个人本位向群体维度、社会本位进行转变,方为法律对大数据时代下隐私的群体形态之应有回应。
原标题:《陈佳欣|大数据时代下隐私的群体形态及法律回应》