2021-04-11 07:19 | 出处: Oasis中文社区
自创立以来,Oasis凭借超强阵容的团队成员和首个隐私保护和可拓展性区块链理念,重磅合作不断,也吸引了来自社区的广泛关注,社区成员自发撰写的文章也层出不穷。
上周,致力于构建人工智能时代更安全的用户权益的Human.ai团队便针对“数据隐私”话题撰写长文,回顾互联网发展历程,指出用户隐私泄露等问题,并表扬Oasis团队在数据隐私保护解决方案方面的突出贡献。
精彩内容,一起来看一下吧!
文 / Human.ai
翻译 / Oasis中文团队
随着互联网的发展,我们有了更多探索更广阔世界的可能。
但这样的探索是有边界的,可以这样说,我们只是在互联网企业巨头所画的“圆圈”里面探索边界。
2020年10月20日,美国司法部正式提起对Google公司的反垄断起诉。
2021年2月26日,美国加州联邦法官正式批准了“脸书侵犯用户隐私”案的和解协议,同意脸书公司向160万用户支付共计6.5亿美元,约合人民币42亿元的赔偿金。
今天这篇文章,我们试图探索这个回答并给出解决方案。
虽然我们感觉到了“控制”,但是我们也感觉到了“觉醒”,我们认为解决这个问题的基块已构建完成,是时候将互联网权利返回给人们了。
明天看起来比今天光明很多。精彩内容,一起来看一下吧!
01追溯:自由与垄断之间的角逐
阶段1:1980年代到2000年代初期
互联网的第一个时代基于互联网社区控制的开放协议。
这些协议的发展历程大致经历了:从TCP / IP扩展到完整的Internet协议套件,再到用于Web的HTTP,再到用于聊天和语音的XMPP和VOIP等等。
阶段2:1990年代中期到2005年
阶段2与阶段1在时间上稍有重叠,大致开始于1990年代中期,它的特点是由集中化的企业巨头(如苹果、亚马逊、谷歌和脸书等)控制的产品和服务。
从第一个时代到第二个时代的转变是激励措施的结果。开放协议当时没有可扩展的业务模型,聪明的人看到了这一商机,建立了集中式垄断。
阶段3::2006年到2016年
第三个时代始于2006年Hadoop的发布,企业巨头开始开源代码。他们不再将专有代码视为核心差异,而是通过网络效应来追求垄断控制。
Google的Android提供了一个说明性的案例研究。
Google能够使用开源代码库通过协作来降低开发成本,改善招聘渠道,改善客户和合作伙伴的获取以及建立和控制行业标准。
Google还能够通过多种网络效应(基于平台、个人公用事业、市场、市场网络和数据)加强对垄断的控制。
阶段4:迎来AI时代,数据+人才=力量
2016年标志着这一时代的重大变化。
和以前一样,企业巨头在追求垄断控制的同时继续开放源代码。但他们的重心更加倾向于吸收人才推动AI数据上。
谷歌一直是AI新时代的领导者。该公司将自己未来定位成“人工智能第一”、“人工智能无处不在”的企业,并鼓励所有团队在单个AI基础架构堆栈(由Google开源)上构建项目。
Google垄断了世界上有限的AI人才,以至于Google在AI方面的学术成果,让麻省、斯坦福等世界名校都相形见绌。
互联网巨头垄断,几乎贯穿了互联网发展的始终。
02觉醒:将数据归用户
我们现在正在进入互联网的第四纪元。
在这个时代,代码将趋向于完全开源,人们更期望成为其数据的专有控制者,对自己隐私数据的控制也有了很多思考:
1、向所有人提供数据钱包
进入互联网第四纪元来思考用户隐私问题,我们决不能错过。Solid项目这一绝佳案例。
Solid项目旨在为我们每个人提供一个可共享、可互操作的数据钱包。
根据创始人的愿景,用户可以将自己的所有数据放入自己的数据钱包中,包括但不限于图像、社交资料、医疗数据等。
另一方面,用户可以选择共享自己的数据钱包,并且可以选择将自己的数据钱包共享给谁、共享多少数据。
同时,这些数据钱包之前也是可互操作的,这样开发人员就可以在所有这些钱包之上构建应用程序和服务。
这是Solid项目对于“隐私数据保护”的初步构想。
2、解决数据信任问题
Solid项目解决了用户之间的数据共享和协作问题。但是,我们在数据保护方面仍然存在一些问题。
以精准医学为例:
每个人的医疗数据非常有用,如果能够让世界上最顶尖的医生掌握我们精确的医学数据,那么人类对于疾病的认知会大大增加,并且获得最优化的治疗方案。
但由于每个人的医疗数据涉及基因问题,一旦被滥用,将造成非常严重的问题。
如果我们要最大程度地利用此类数据,同时又将危害的可能性降到最低,那么我们需要解决两个问题:
数据泄漏:当不受信任的各方对我们的个人数据进行计算时,这些方(或任何其他方)绝对不可能直接访问我们的原始数据。
折衷推论:任何人都不可能取任何计算结果并推论与我们有关的任何个人信息。
重要的是,我们需要解决这些问题,同时还要满足两个约束条件:
第一个约束是计算完整性:任何人都不可能篡改计算。
第二个约束是远程证明:各方必须有可能远程确认计算确实已按预期完成。
03实现:技术推动隐私保护
事实证明,计算过程中的数据泄漏问题更具挑战性。
我们在一开始提出了密码学的解决方法,包括安全的多方计算、同态加密和零知识证明系统等。但不幸的是,由于适用性较差,这些方法并不能完美解决问题。
从那时起,提出了两种替代方法。这些替代方案比较实用,但是它们也要求参与者至少信任另一方。这两种方法便是TEE集中协调的受信任执行环境和联合学习/联合分析。
1、技术介绍
TEE确保在使用代码和数据时将它们完全隔离。这是通过硬件管理的。
TEE还提供远程证明,这意味着所有各方都可以确认计算已完成。除了玩具问题外,还需要协调多个TEE。中央协调使所有各方都需要信任中央协调器。
联合分析涉及两层计算:
本地计算
跨源计算
在本地计算期间,将查询带到每个独立的数据持有者,然后使用本地数据在本地环境中执行计算。在跨源计算期间,将共享本地计算的输出,并生成汇总输出。
联合分析限制了研究人员确定人群水平相关性的程度。这是因为在本地计算期间相关性可能不明显。联合分析还要求研究人员信任数据所有者。这是因为联合分析将查询公开给数据所有者。
如果有关查询的知识很有价值,或者如果对数据进行训练的AI模型很有价值,则需要信任数据所有者不要使用这些有价值的资产。
通过增加动机和手段,每个数据所有者处的查询暴露也增加了遭受攻击的风险。
例如,这增加了为数据所有者工作的个人在某些特定的数据使用方面会遇到问题的机会。这个人也将比数据更容易操作查询和本地输出。
您可能感兴趣的文章: