首页 » 论文导航 » 政治法律 » 正文
智能时代的个人隐私保护困境
 
更新日期:2021-03-22   来源:   浏览次数:458   在线投稿
 
 

核心提示:(一)传统隐私保护方式滞后现存隐私侵犯手段在过去,保护隐私的方式是简单地屏蔽掉一些个人信息,这种方法在当时是行之有效的,因为各种维度的数据联

 
 (一)传统隐私保护方式滞后现存隐私侵犯手段
在过去,保护隐私的方式是简单地屏蔽掉一些个人信息,这种方法在当时是行之有效的,因为各种维度的数据联系不到一起。但是在智能时代,利用大数据的多维性和完备性的特点,这些被屏蔽掉的信息可以从其他维度利用数据的相关性实现复原。例如,美国在线电影、电视租赁公司Netflix(网飞)曾举办了一场根据公开数据推测用户电影评分的比赛(Netflix Prize),公开数据中抹去了可识别用户的信息,但一年后,来自得克萨斯大学奥斯汀分校的两名研究员将公开数据与互联网上一家电影数据库网站的公开数据进行关联,进而识别出了匿名用户的身份。三年后,Netflix最终因隐私原因宣布停止该比赛,并付出了九百万美元的高额赔偿金。另外,如果信息经过泛化、随机化、数据合成等技术进行去标识(De-Identification)处理,则不再将其视为个人信息,对这些信息的后续分析、使用、分享、转移等亦不受个人信息保护规范的限制。
(二)个人隐私的获取方式同过去不同
智能时代,借助移动设备、传感器、定位系统等“端口”,人、各类物品与网络广泛连接,隐私将不再限于公民过去在物理空间或是虚拟空间中留下的个人敏感信息,而是包括了公民在一切联网状态、在任何移动化场景中产生的所有个人信息[3]。关于个人信息与个人隐私的界定,按照学者张新宝所讲,“个人信息”是指与一个身份已经被识别或者身份可以被识别的自然人有关的任何信息,个人信息中涉及个人私生活的敏感信息属于个人隐私。而个人敏感隐私信息,一般是指关涉个人隐私核心领域、具有高度私密性、对其公开或利用将会对个人造成重大影响的个人信息,如有关性生活、基因信息、遗传信息、医疗记录、财务信息等。这些普通的个人信息经过数据聚合、机器算法,会被整合为具有特定指向性的个人隐私信息,这在智能时代不仅能够轻松实现,而且不易察觉。
(三)个人隐私的从属外延进一步扩大
一些过去为外界所知的个人信息既不会给信息制造者造成损失,亦不会使数据拥有者获益。随着人工智能对个人信息的挖掘和重组,就能获得或推测出个人未曾对外公开的隐私信息。正如李修全所指出的:“无数个看似不相关的数据片段可能被整合在一起,识别出个人行为特征甚至性格特征。”最常见的是我们在生活中的细节信息,例如最近一段时间的出行情况,学历高低和收入多少,个人性格是胆小怕事还是勇敢强悍等等。当人们还在以线下购物方式为主的时候,购买商品通常是按照全国统一零售价进行,随着电子商务的兴起,人们在中国的一些电子商务网站上发现,一些人经常买到假货,而另外一些人以同样的价格却买到真货;同样,购买同样的商品或服务,一些人支付的价格总是高于标准定价。这种问题的出现并不是由个人的运气因素所导致,而是商家掌握了太多的个人数据,或者说是买家的隐私。当商家知道了哪些人在面对假货时会选择自认倒霉,哪些人会选择讨回说法;哪些人的购买能力强、对价格变化不敏感,哪些人在购买东西时选择货比三家、追求低价时,商家便会通过个性化服务的方式对不同的顾客采取不同的营销手段,进而最大化自己的利益,即使这些方式会损害顾客利益。
另一个例子是,保险公司手中掌握着大量被保险人的历史数据,如果保险公司单方面通过智能时代的技术服务了解到某位投保人在今后有多大几率会得某种疾病,保险公司将有可能拒绝给那些在未来会得某些绝症的投保人提供保险服务,或是根据得病几率的大小收取不同价格的保险费。因此那些真正需要保险的人可能要么根本无法买到保险,要么需要支付多于正常价格几倍的保险费。我们希望智能时代的技术进步能够满足我们个性化的需求,提升人类生活质量,另一方面我们又有可能面临差别对待和歧视。综上可知,大部分时候数据控制者并不会拿着挖掘到的个人隐私对外披露或直接侵害,而是从中发现个人的偏好、生活习惯、工作性质、家庭状况,进而有针对性的投其所好,最大化自己的利益。因此,当越来越多的人因隐私问题受到损害或歧视,可能会对机器智能产生排斥和恐惧,这将对技术的发展产生消极影响。
点击在线投稿
 

上一篇: 智能时代的个人隐私保护困境

下一篇: 智能时代的个人隐私保护困境

 
相关论文导航
 
 
 
 
 
 
 
相关评论
 
分类浏览
 
 
展开
 
 
 

京ICP备2022013646号-3

(c)2008-2013 学术规划网 All Rights Reserved

 

免责声明:本站仅限于整理分享学术资源信息及投稿咨询参考;如需直投稿件请联系杂志社;另涉及版权问题,请及时告知!