▲ (小尘4x/图)
全文共2088字,阅读大约需要5分钟
数据搜集者能够明确告知用户搜集信息的用途和使用时间,并通过反馈机制赋予用户检验新数据信息使用情况的权利,而绝不能依赖于“隐私政策”的简单告知。同样,大数据羽翼下的算法预测,对用户“现在”和“将来”的监视应该设定范围,防止数据搜集者对个人信息的过度解读,以保障公众的信息安全与自由。
本文首发于南方周末 未经授权 不得转载
文|李平
责任编辑|温翠玲
昨晚和朋友闲聊,言语间提到打算购买一款无声鼠标。聊天结束后,准备上网入手一款。结果,刚打开购物App,搜索框就出现了“静音鼠标”的字样,并且推荐页面上也出现了相应的商品。要知道,在这之前,我没有在该App上搜索过这款商品。
同样离谱的是,今天上午我在某购物App浏览了“纳米胶带”,几个小时后又打开另一购物平台,推荐页面竟出现了同款胶带。可见,我们个人信息不但被“窃听”,各平台之间还存在用户信息共享的情况。
这些现象让我想起可能与这样的提示有关:“是否允许获取设备信息”“是否允许访问您设备上的照片、媒体内容和文件”。我曾经试过选择“不允许”,但这样操作后,有些App就不能正常使用了,最后还是被迫接受了访问请求。
很多时候,正如尤瓦尔·赫拉利在《人类简史》中所言:“人是可以为了方便而牺牲部分隐私的”。关于科技伦理,这个时代的每个人都有发言权,我们每天都在手机、平板、电脑等电子设备间忙得不亦乐乎,在各类网站和App里来回穿梭。那些形同虚设的“隐私政策”被我们随手滑过,有多少人会点开“隐私政策”一条一条地看清楚,衡量之后再做定夺?
我们不止一次地呼吁科技伦理,呼吁保护个人信息,但现实是我们天天都处于“信息裸奔”的状态之中,为了生活便利,牺牲的岂止我们想象中的“部分隐私”?
如今,人们手机上的App几乎都具有个性化推荐功能,这对个人信息安全产生巨大隐患,背后的算法关联技术正是始作俑者。舍恩伯格在《大数据时代》中谈到,用户在购物网站上输入买房的相关词条,通过关联物的预测性,网页就会向用户推荐大量的房屋装修类广告。算法技术只需要知道搜索框里“是什么”,就可以快速地分析出用户需要的“有哪些”,出现“我知道你在想什么”这样可怖的现象。
有可能刚出家门,数据便可得出我们即将前往超市购物的预测;刚走进超市,商家就能知道我们的购物倾向。更有甚者,通过对用户的个人收入、信用卡支出情况等数据进行分析,就可以预估个人的支付能力。也就是说,当我们踏进超市的那一刻,商家已将客户的所有信息彻头彻尾地了解,我们要买什么、价格接受范围、购买意愿强度等早已完全通过数据分析而掌握。这样荒诞的情况正发生在现实生活中。
由于平台没有被限制在使用数据之后必须在特定时间内删除相关数据,平台可以无限地开发、分析这些被保存下来的信息。由此,数据再利用与过度分析带来众多潜在的隐私泄露风险,再加上强制执行的“隐私政策”,我们的个人隐私顺理成章地被泄露出去。
2021年8月通过的《中华人民共和国个人信息保护法》,意味着个人信息保护迎来专门立法,其中就强调不得过度收集个人信息,保证个人信息的合理利用。因此,平台应该在使用个人数据后删除相关信息,不得长时间保留。出于特殊原因,平台须长期保留数据的,必须被要求为其行为承担法律责任。
希望数据搜集者能够明确告知用户搜集信息的用途和使用时间,并通过反馈机制赋予用户检验新数据信息使用情况的权利,而绝不能依赖于“隐私政策”的简单告知。同样,大数据羽翼下的算法预测,对用户“现在”和“将来”的监视应该设定范围,防止数据搜集者对个人信息的过度解读,以保障公众的信息安全与自由。
不可否认,技术的发展是人类社会的进步,技术本身无所谓善恶,关键在于发明技术、利用技术的人。算法发展到今天,在极大推动社会生活和生产发展的同时,对信息生态的严重破坏更是不容忽视。因此, 建立一种高效的隐私保护模式,学会尊重用户个人信息才是算法技术的长远发展之道。
(作者为西南大学新闻传播学研究生)
(南方周末App“hi,南周”栏目期待您的来稿。投稿邮箱:nfzmreaders@163.com)
订阅后可查看全文(剩余80%)