应用

技术

物联网世界 >> 物联网新闻 >> 物联网热点新闻
企业注册个人注册登录

AI引发数据“裸奔”,安全问题该去向何方?

2019-08-29 09:25 LinkDoc视界

导读:在我国,近年颁布的若干项国标和法律也对个人数据保护作出了定义,并且随着实践推进而不断完善,但目前尚未形成体系完善的人工智能数据安全法律法规。

工业互联网,大数据+AI,健康医疗大数据

Pixabay

【编者按】如何既合理地令数据发挥最大的价值与潜力,又保护个人信息在大数据时代不被滥用?这是目前健康医疗大数据产业落地中急需解决的问题。

毫无疑问,作为技术概念的“大数据”拥有光明的前途,它是人工智能的基石,是未来世界的“石油”。但作为生意的“大数据”,正走到一个关键的转折点。

“大数据之父”、牛津大学教授舍恩伯格指出,当前大数据的价值不再单纯源于它的基本用途,而更多在于它的二次利用。这既颠覆了当下隐私保护法以个人为中心的思想,同时说明在大数据时代,如果政府或企业还严格按照“目的限定”或“数据最小化”原则来获取个人同意或处理数据,将“限制了大数据潜在价值的挖掘”。

不可否认,流动中数据产生了前所未有的价值和方便,但“就像一条高速公路打开所有入口,速度快了,发生危险的概率和影响也可能更大”,数据的安全问题同样经历着严峻的风险和挑战。Verizon 发布的 2018 数据泄漏报告(DBIR)显示, 2017 年全球发生的 53000 余件网络安全事件中,有 2216 起确认为数据泄漏,其中医疗行业高居榜首。

1、硬币的正反面:数据在加速,也在暴露

数字经济时代,海量的数据不仅能优化以深度学习为代表的AI算法设计,更能显著提升数据收集管理能力和数据挖掘利用水平。

2018年投入使用的“京津冀肺癌AI辅助诊疗平台”,就是结合医疗大数据病历库通过AI比照进行分析,出具患者影像诊断信息,辅助医生进行临床诊断。截至目前,该平台在天津市胸科医院累计使用超过20000例次,其中等同病理判断水平的数据达数千例,使得该平台AI模型不断优化。AI肺结节检出率从82%提升到99%,良恶性预测准确率从51%提升到90%,均高于临床PET-CT对结节良恶性的预测。

当然不仅仅是医疗领域,当前大数据分析和AI技术的运用已经像水电煤一样开始渗透至经济社会发展的各个方面。但技术运用的不确定性也会产生连带的隐患。

2018 年,Facebook剑桥分析事件爆出,一度成为互联网行业的焦点,几百亿美元市值瞬间蒸发。在全球越来越重视隐私的趋势下,数据安全被提到了新的高度。

中国信息通信研究院近日发布的《人工智能数据安全白皮书》显示,AI应用可导致个人数据过度采集,加剧隐私泄露风险。随着各类智能设备(如智能手环、智能音箱)和智能系统(如生物特征识别系统、智能医疗系统)的应用普及,人工智能设备和系统对个人信息采集更加直接与全面。

中国信通院华东分院首席规划师贺仁龙表示,AI技术在企业的应用中,涉及设备安全、数据安全、控制安全、网络安全、应用安全五大方面,其中,核心是数据安全。而这一方面,医疗领域属于高危行业,例如医疗设备因没有经过多番测试导致病人资料泄露。对此电子科技大学周涛教授持同样看法,“我们可以尝试把病人的数据进行预脱敏,毕竟名字、电话这种数据和病例没有直接关系,所以对患者个人信息进行脱敏,也能减少隐私泄露问题。”

犹如硬币的正反面,大数据和AI的发展给时代“提了速”,但也可能给我们“泄了密”。

2、我们能拒绝数据被采集利用吗?

对于个体而言,保护数据安全最直接的办法就是不允许任何平台收集使用“我”的数据,但这明显与大数据时代的发展理念相悖。

大数据和AI是国家和社会未来发展的战略方向,如果为了保护数据安全就“粗暴”地限制大数据和AI的发展,反而会给国家和社会发展带来更大的问题。因此,数据需要开放,需要在标准规范的前提下挖掘最大的价值,抢占技术和产业制高点。

同时当人们离开互联网,离开手机上的各种APP,会发现生活可能变得“寸步难行”,除打电话外没办法与朋友联系,不能网购、叫外卖、网约车、网络挂号……所以当人们不得不将自己的数据留痕于各种网络或系统中时,需要和呼吁的是更严密的网络监控。

如何既合理地令数据发挥最大的价值与潜力,又保护个人信息在大数据时代不被滥用?对此舍恩伯格提出 “从个人许可到让数据使用者承担责任”这一观点。对于这一转变,从信息控制者责任的角度来看,需要强化其风险防范规则,确立基于风险防范的个人信息使用规则。

在最高人民法院司法案例研究院4月的一篇文章中,也透露出这样的思路。文章指出,解决用户个人数据保护的关键在于“区分包含用户个人信息的原始数据与处理加工形成数据产品后的衍生数据,并分别判断归属”。文章认为,原始数据归属于用户,而衍生数据则归属于运营公司。这样不仅能合理平衡双方利益,更能“鼓励网络企业不断进行技术创新和产能创造,促进社会总体财富增加的需要。”

中国人民大学丁晓东教授表示,公平信息实践“已经成为全球隐私保护的重要准则”。他尝试提出了一个更为符合大数据时代特征的公平信息实践版本:

个体合理预期:个人信息的收集、处理与流转应当符合个体的合理预期,尤其是在不涉及公共利益的情形下,当个人信息的收集、处理与流转超出一个社会中正常理性个体的合理预期时,个人信息的收集者或处理者必须对个体进行显著告知,确保个体理解伴随此类收集与处理的风险,并且在此类情形中获得个体的明确授权。

访问权、纠正权与删除权:对于未进入公共领域的信息和不涉及公共利益的个人信息,公民个体对其信息具有访问权、纠正权与删除权。对于进入公共领域的信息和涉及公共利益的个人信息,公民个体的访问权、纠正权与删除权将受到相关限制。

合理使用与流通:个人信息的收集不应当妨碍社会信息的合理使用与合理流通,当个人信息的收集与使用超出个体合理预期但符合社会公共利益时,应当优先考虑社会公共利益,在考虑社会公共利益的前提下限定个人信息的收集与使用。

消费者利益与公共利益优先:个人信息的收集与利用应当以促进社会的整体利益为基础。商业领域的个人信息应当以促进服务的提升和更好满足消费者为目的,避免利用个人信息来无限度榨取消费者剩余;政府对于个人信息的利用应当以促进服务公民与提升公共政策制定为目的。

风险预防:个人信息的收集者与处理者应当采取恰当的措施来防范伴随个人信息收集、储存、处理与流转的风险。此类措施应当包括但不限于风险评估、风险预警、分类保护、泄露告知等措施。

3、数据安全法规,离我们还有多远?

近期,因用户数据泄露,英国航空公司和万豪国际集团分别被英国信息专员办公室(ICO)处以1.8亿英镑和近1亿英镑的罚单,着实让世界惊叹欧盟GDPR ——“史上最严数据保护法”的威力。

在GDPR实施的一年时间里,不仅结束了互联网企业利用个人数据牟利的“裸奔”时代,同时对于消费者的隐私观念、科技企业的文化、各国数据保护的立法以及数据安全未来发展的思考,都起到了潜移默化的影响。

但数据保护法规的落地,并非一片坦途。

在相关法律还不十分完善的情况下,甚至有可能被反过来用于侵犯隐私。例如,牛津大学的一位博士生引用GDPR中“数据主体有权从控制者处要求获取其个人数据”的条款,假冒他人名义向150个公司发送邮件,要求获得个人隐私数据,最后得到了包括社会保险号(SSN)在内的高度敏感信息。看来,数据保护法规要在一个“防君子不防小人”的环境中实行,还有很长的路要走。

另一主要质疑是“阻碍创新”。 近期《财经》专题文章提出,企业数字化应用需要获得一线工人的数据,可是GDPR要求每一次数据采集都须经过本人同意,这在欧洲几乎是不可能完成的任务。缺失了第一手的数据,智能制造举步维艰。

此外,严苛的惩罚也可能使一些小企业难于成长甚至濒临倒闭,而大企业也会出于谨慎或降低风险而收缩业务进而阻碍企业创新。如果没有相匹配的创新服务形式,发现问题一罚了之,可能一些本可以继续为社会提供价值的企业会由于ICO的一剂重罚直接进入“ICU(重症监护室)”。

在我国,近年颁布的若干项国标和法律也对个人数据保护作出了定义,并且随着实践推进而不断完善,但目前尚未形成体系完善的人工智能数据安全法律法规。

上海市科学学研究所科技发展研究中心王迎春主任表示,中国应坚持技术、产业和规则齐步走,建立更加具有弹性空间的动态治理机制,积极在促进创新和社会有序演进方面实现动态平衡,既要呵护促进创新又要防范系统性风险,为人工智能健康发展提供保障。要努力形成一套务实管用、行之有效的方法,对创新高度包容,同时对可能出现的风险高度警惕,针对出现的问题加强多部门的协同治理。

数据安全法规,目前还是一个成长中的孩子。希望现实中的不完善可以倒逼法规的持续改进,让其找到严谨和灵活的平衡点,为大家创造一个可信赖的数字世界。