• 元宇宙:本站分享元宇宙相关资讯,资讯仅代表作者观点与平台立场无关,仅供参考.

隐私计算,果真是数据合规的万全之策?

  • 零壹财经
  • 2022年9月03日08时


来源 | 肖飒Lawyer
作者 | 肖飒


核心提示


1.数据合规不可单靠隐私计算技术群实现;

2.隐私计算无法解决数据来源合规性问题;

3.隐私计算无法保证数据处理的完全匿名化;

4.合规建议:在采用隐私计算技术群时,应当进行事先的数据处理全流程风险评估;综合检视数据来源的合法性,最大程度降低合规风险。


一、隐私计算是数据合规可行的“技术解”


《数据安全法》、《个人信息保护法》与《网络安全法》可以说是我国数据合规的“三驾马车”,三部法律的实施直接构建了我国数据合规的基本法律框架。“保护数据隐私”是数据合规的核心命题之一。


我们必须承认,这一命题与打通数据壁垒、支持数据共享与流通的理念天然存在二律背反的关系。今年四月《中共中央、国务院关于加快建设全国统一大市场的意见》(以下简称《意见》)明确提出要加快培育统一的技术和数据市场,这一举措呼唤数据产业探索既能保障数据安全与数据隐私,又能实现数据共享与流通的机制。隐私计算正是在这样的大背景下进入公众视野。所谓隐私计算,就是在保证数据“可用不可见”的前提下,实现多方数据协作。该技术能够在不侵害数据本身的安全和隐私的情况下有效挖掘数据中的价值,支持数据的可信共享和流通。


目前隐私计算主要通过三大技术实现上述功能,这三大技术分别是安全多方计算(Secure Multi-Party Computation,MPC)、可信执行环境(Trusted Execution Environment,TEE)、和联邦学习(Federated Learning, FL)。


安全多方计算的目标是使一组互相独立、互不信任的数据拥有方根据各自的私有数据联合计算,并且每一方仅获取自己的计算结果,无法通过计算过程中的交互数据推测出其他任意一方的输入和输出数据。


可信执行环境是从硬件角度解决数据安全问题的技术。英特尔的SGX是其典型代表。以SGX为例,它是一套拓展的x86指令集,通过使用“飞地(Enclaves)”来实现数据安全保护。所谓飞地,是CPU内置的隔离存储区域,这种区域可以保护数据免受特权级别(如操作系统、BIOS)进程或模块的影响,换言之,即使攻击者可以控制整个软件执行环境,SGX仍然能够有效保护在飞地内处理的数据。从某种意义而言,SGX并没有将系统中的恶意部分作为传统的安全沙箱进行隔离,而是反其道而行,将真正要保护的数据密封到“沙箱”中。


联邦学习则是一种分布式机器学习技术,其按照参与方数据分布模式,大致可以分为横向联邦学习和纵向联邦学习,前者通过融合不同数据集中数据维度大致相同的数据来增加样本量,后者是指不同数据源拥有同一个样本的不同特征时,每个参与方对各自的特征数据进行处理,最终汇总中间结果得到最终模型的场景。联邦学习能够兼顾数据共享和隐私保护的双重目标,其能够保证不直接暴露用户数据,但缺乏对中间统计信息、模型评估和最终输出结果的保护。


上述三项技术本身并不是非此即彼的替代关系,而是可以互相结合运用。在实践中,除了上述这三大技术外,差分隐私、零知识证明、同态加密等技术也被运用于隐私计算领域,这使得隐私计算可以成为数据合规领域中可行的“技术解”。

二、隐私计算≠数据合规


正如上文所述,隐私计算是一系列技术解决方案的结合体,这些技术群可以成为数据合规领域中可行的“技术解”,目前实务界普遍存在的一个误区是做好隐私计算就等于做好了数据合规。但实际情况却并非如此。


01隐私计算技术群本身不能解决数据来源的合法性问题。


隐私计算技术群关注的是收集完毕原始数据之后对原始数据的匿名化和有效利用,但原始数据的来源是否合法则不是隐私计算技术群能够解决的问题,不仅如此,由于隐私计算技术群中的安全多方计算和联邦学习机制会将多个不同的主体拉入数据处理的过程中,其不仅不能解决数据来源的合法性,反而会在一定程度上增加由于某个数据的来源不合法而造成全体数据处理者共同侵权的风险。


此处以个人信息为例,我国《个人信息保护法》第十三条明确指出,个人信息处理者应当在取得个人同意的前提下处理个人信息,倘若个人信息处理者所处理的个人信息来源存在问题(如未经同意收集个人信息),则再如何进行隐私计算也于事无补。在实务中,由于隐私计算技术群的特性,通常会有多个主体共同参与个人信息数据的隐私计算,共同成为个人信息处理者,当其中一个主体获得个人信息未得到授权,其他所有主体均会被“污染”,成为共同侵权者,因此,倘若数据来源的合法性无法保证,隐私计算不仅不能起到合规目的,反而还会增加侵权风险。


02经过隐私计算处理后的数据,不一定完全符合“匿名化”要求


隐私计算技术群实现数据匿名化的程度差异极大,经过隐私计算技术群处理过的数据在很大程度上可以进行逆向工程,因此就数据合规角度而言,隐私计算不是一个“有或无”的问题,而是一个“程度大和程度小”的问题,即使某一主体做到了数据源合法,也有隐私计算机制,依然无法得出有效做到数据合规这一结论。


以联邦学习技术为例,在终端使用联邦学习对用户行为进行建模时,参与方需要在终端手机用户的出行、消费等数据,并将模型的梯度信息进行交换。由于对梯度数据进行逆向工程的难度较小,很容易被还原成原始数据,因此梯度数据仍然属于《个人信息保护法》第四条所规定的个人信息,而非“匿名化处理后的信息”。倘若未经用户同意泄露这些梯度信息,便构成侵权。


综上所述,以安全多方计算、联邦学习、差分隐私、同态加密等技术为代表的隐私计算技术群无法保证数据来源的合法性,对于是否能够保证数据的匿名化,还需要根据实际情况进行评估。简言之,隐私计算技术群无法绝对豁免数据合规要求,隐私计算不等于数据合规,数据处理主体是否有效做到数据合规,应当结合具体应用场景、技术方案、数据授权内容等综合判断合规风险点位。

三、基于隐私计算技术群的数据合规要点


01应当进行事先的数据处理全流程风险评估


以个人信息处理的场景为例我国《个人信息保护法》第五十五条规定,当个人信息处理着有处理敏感个人信息,利用个人信息进行自动化决策,委托处理个人信息、向其他个人信息处理着提供个人信息、公开个人信息等情形时,应当事前进行个人信息保护影响评估,并对处理情况进行记录。


因此数据处理者在应用隐私计算技术之前,应当开展合规自查,对于隐私计算的具体场景是否涉及个人敏感信息、是否会对个人权益产生重大影响等事项进行事前的安全评估,评估的具体包括但不限于数据的处理目的和方式是否合法、正当和必要;对个人权益的影响及安全风险、保护措施是否合法、有效及与风险程度相适应等维度,同时评估应留下客观的可供监管部门查阅的资料。


02应当明确数据来源的合法性


还是以个人信息处理的场景为例。


首先,个人信息处理的一般原则要求数据处理者在收集、使用用户数据前获得有效的授权同意,明确数据使用的目的、方式、范围和规则等内容。即使隐私计算的过程可能并不涉及原始数据的流转,但由于隐私计算对数据的处理仅在特定条件下可以达到匿名化效果(如前文所举“联邦学习”技术例),数据处理的规则仍应得到严格遵守。其中,特别要注意用户授权链条的完整性,即用户的授权应当覆盖全部的隐私计算参与方和隐私计算全部的操作行为。


其次,个人信息处理者应当动态评估数据的使用场景是否始终符合用户的授权和参与方的约定。我国《个人信息保护法》第六条规定,处理个人信息应当具有明确、合理的目的,并与处理目的直接相关。举例而言,即使个人信息处理者接触的个人信息数据是数据模型、切片数据、加密数据等衍生数据,但对原始数据在本地服务器进行建模、对衍生数据进行计算或处理的行为本身同样应当被涵盖在用户授权的范围内。个人信息处理者应当在授权协议中写明上述授权范围,避免出现合规性问题。


结语


数据合规不仅仅是技术问题,更是法律问题,基于安全多方计算、联邦学习、差分隐私、同态加密等技术的隐私计算技术群在一定程度上解决“保护数据隐私和数据安全”与“促进数据共享与流通”两大命题间的矛盾,但无法解决数据完全匿名化和数据来源合法化的问题,数据处理主体务必铭记,就数据合规问题而言,隐私计算是锦上添花,却非雪中送炭。


部分参考文献:

1.隐私计算联盟中国信息通信研究院云计算与大数据研究所.《隐私计算法律与合规研究白皮书》(2021年版)

2.陈如梵,王林等.生物医疗场景下的隐私保护计算应用,载《信息通信技术与政策》,2022年第5期

3.唐华云,张嗣昆等.基于区块链智能合约的隐私计算研究综述,载第十届中国智慧控制大会论文集

4.钟佳淋,吴亚辉等.基于改进NSGAGIII 的多目标联邦学习进化算法.载《计算机科学》,2022年第4期

5.戴雨璇、张永杰等.基于联邦学习的风险管理研究进展,载《天津大学学报(社会科学版)》,2022年第5期

6.蒋瀚,徐秋亮.基于云计算服务的安全多方计算,载《计算机研究与发展》,2016年第10期

7.李顺东,王道顺.基于同态加密的高效多方保密计算,载《电子学报》2013年第4期


推荐阅读

公共数据开放提速:隐私计算的探索与应用

隐私计算开源,微众、蚂蚁和百度谁走得更快些?

生态重塑:区块链+隐私计算一线实践报告(2022)

section>


End.

WX

零壹财经文章

Blockchain相关文章

Copyright © 2021.Company 元宇宙YITB.COM All rights reserved.元宇宙YITB.COM