今年3・15晚会曝光的第一个案例,是“直击人脸识别,谁在‘偷’我的脸?”在这组新闻中,多个商家被曝光了一系列未经顾客授权的行为,包括利用监控设备采集人脸信息、识别顾客身份、储存信息等。 比如,上海一间科勒卫浴门店的摄像头看上去不起眼,但央视记者从科勒中国的一位零售销售主任口中了解到,门店安装的摄像头有人脸识别功能
今年3・15晚会曝光的第一个案例,是“直击人脸识别,谁在‘偷’我的脸?”在这组新闻中,多个商家被曝光了一系列未经顾客授权的行为,包括利用监控设备采集人脸信息、识别顾客身份、储存信息等。
比如,上海一间科勒卫浴门店的摄像头看上去不起眼,但央视记者从科勒中国的一位零售销售主任口中了解到,门店安装的摄像头有人脸识别功能。
记者还访问了为科勒提供摄像头的科技公司万店掌。工作人员透露,国内上千家科勒门店,都安装了他们的摄像头。一旦有人走进店铺,面部信息就会被收集。
记者被科勒门店监控拍下的照片|2021年315晚会截图
报出进店时间后,记者得到了自己的三张大头照,抓拍角度不同,但系统生成的ID都一样。只要顾客在一间科勒门店出现一次,今后再去到任何一间门店,光顾次数也会被系统记录下来。
万店掌工作人员说,面对不戴口罩的人脸,系统的识别准确率大约有95%,戴上口罩的人也有80%-85%的概率被准确识别。除此之外,公司为商家提供的“人脸互动营销解决方案”,还能通过照片分析人的性别、年龄、甚至被抓拍时的心情。
提供人脸识别摄像头的公司远不止这一家,他们的客户覆盖也十分广泛,宝马等车厂的4s店,MaxMara等服装店,甚至超市,都会有类似的摄像头分布。重要的是,所有的数据收集和分析,都在顾客不知情的前提下展开。
不过,根据国家市场监管总局发布的《个人信息安全规范》,人脸信息属于生物识别信息,也属于个人敏感信息,收集个人信息时应获得个人信息主体的授权同意。
《个人信息安全规范》相关规定|2021年315晚会截图
而在央视记者的走访过程中,没有一个商家明确告知顾客面部信息会被收集,征求意见更无从谈起。多家店铺都可能涉及违规收集。
我们不得不担心更多的问题:连同面部信息一起,其他个人信息数据存储在哪里,它们是否被用来盈利、是否有泄露的风险?
哪个环节需要我们特别警惕?我们是否会在遍布四周的监控技术里被“温水煮青蛙”、习惯了它的存在,还是真的有某一个不能碰的人性和隐私底线?
自己的身份,连同一举一动,都暴露在一个全知全能的监视者之下|图虫创意
“顺畅”刷脸的隐忧
其实,如果单论技术本身,面部识别技术已经发展了相当长一段时间了,其技术原理也并没有很复杂。和其它的图像识别一样,它的原理是提取图像中的特征,然后判定这个特征是否与数据库中的特征符合、有多少概率是同一张脸。最近几年,因为机器学习的快速发展,机器对于面部特征的提取和识别能力,亦有了飞速进展。2016年的时候,谷歌基于 ImageNet 训练出来的图像识别模型,准确度已经超越了人类,速度自然也是不在话下。
这其实和真正的“人工智能”还差得很远。但因为它的应用实在太广,嵌进了无数的使用场景中,而应用过程又十分地顺畅,给人一种“智能”的错觉。
“顺畅”,是面部识别技术的一大特征。在推崇这个技术的人眼里,它最大程度地模仿了人和人之间的交互,即用“看”即可。毕竟,用眼睛识别一个人的脸,是我们人类与生俱来的功能。你拿起你的 iPhone,就会自动解锁;走进家门,门会自动打开;进入学校和办公室等需要安保的场所,不用停下查证件……
但这种顺畅的交互,从另外一个角度看,是“没有交互”。一切都无缝地、在无声无息之间发生。也就是说,很多时候我并不能以知情的方式,给出我的同意。我用我的指纹必须按在门锁上,这个“按”的动作,亦是我在与机器“对话”――我现在需要开门了。而我只是在摄像头面前“出现”,我的脸就已经给出了所有的信号,不管我想不想。
我只是在摄像头面前“出现”,我的脸就已经给出了所有的信号,不管我想不想。|图虫创意
这也是为什么人脸识别技术可以非常“隐蔽”。它是一个不需要给出“知情同意”就可以应用的技术。它出现了,它应用了,但你不知道。而知情同意的缺失,也让隐私泄露变得极其容易。到底有多少摄像头在我身边,跟踪我、记录我?我是不是已经在不知不觉中“丢失”了我的脸?这些问题,想起来略微有一些可怕。
如何用脸“重建”一个你?
但更进一层的恐惧,来自于面部识别背后的运转逻辑――它是如何处理、如何匹配、如何运用面部信息的。
我们人有许多可供识别的生物特征,包括指纹、虹膜、面部特征,乃至基因等等,都有潜在的数据化的可能。它们可以被记录,可以被复制,可以被传播,可以散见在互联网各处――公安系统里有我们的指纹,微信里录下了我们的声音,而我们上传到社交网络的照片上都有我们的脸。美国加州大学圣迭戈分校(UCSD)技术社会学教授凯莉・盖茨(Kelly Gates)将其称为“去身化的身份”(disembodied identity)。
我们的身份已然“离开了”我们身体,我们甚至不再对其有掌控。
但是,面部识别技术的关键在于,这些独一无二的生物信息数据,怎么和更多的技术、更大的数据库、更广的系统中的各式各样的关于我们的碎片拼起来,凑成一个完整的“自己”。
将一个人的面部特征作为加密信息、打开我的手机“刷脸”,和将一个人的脸解码成为“我的身份”,在更大的系统里流转(和公安系统匹配的监控),虽然都是“刷脸”,但却是截然不同的刷法。
我们的身份已然“离开了”我们身体,我们甚至不再对其有掌控|图虫创意
如果你的脸只是用来打开你家的门,那么你的脸除了重建出“你是这个家的主人”之外,并没有任何别的意义。
但当这个数据从你的小世界来到了“云端”,与更大的数据库相交、互相印证,那么你自己的身份,也就更加无所遁形――你是谁,你家在哪里,你大概处于社会中什么样的地位,你昨天网购的东西,你的“健康码”、你的身份证号……即使证件号码等重要信息泄露可能性小,但只要有足够多的其它数据,“重建”一个你,并不会太困难。
我们和深渊之间,并没有多少坚实的保护。
利益让技术跑得越来越快
纽约长岛大学的技术伦理学家安东・阿尔特曼(Anton Alterman)在一篇论文中指出,生物信息识别的隐私风险,主要存在于几个方面:
1)一个技术是否能准确识别出一个特定个人的真实社会身份;
2)信息是否只留存于本地、还是在更广的网络中流动、使用;
3)使用一个技术是否需要用户的协作;
4)技术开发者是否有保护隐私的动力。
当下的面部识别技术,正挑战着全部四个方面。面部数据可以准确识别个人;数据互通带来滥用的危险;使用的时候,甚至无需知情同意。而最后一点可能是解题的关键――保护数据隐私的动力从何而来?它们能对各方带来什么好处?而谁又从中获利?谁在其中有发言权?
在那场人工智能大会上,我着实领会到了生产端的动力,以及客户的购买力。人工智能作为一个新兴产业,得到了大量的投资,而投资者需要看到技术投入应用、看到回报。于是,面部识别技术被包装为各种各样的“解决方案”,打包出售给商业客户。是他们最有能力购买这些技术作为“解决方案”,而这种购买力,很大程度上决定了面部识别技术的研发走向。
一个有面部识别解锁功能的手机,或者能刷脸开门的智能门锁,对我们普通用户的吸引力并没有那么大。毕竟,指纹也能解锁,密码也能开门,不“云端”“智能”也无妨。但对于公共场所的经营者以及各级管理部门而言,全面而有效的监控,身份的精准识别,乃至收集、使用数据以获益,带来的好处十分巨大,比“保护隐私”更加重要。强大的推动力,让技术开发越走越远,且越来越向经营者、管理者、客户,而不是实际用户倾斜。
人脸识别技术越来越向经营者、管理者、客户,而不是实际用户倾斜|图虫创意
在面部识别这个技术的很多应用场景里,用户发出的声音是有限的,有的时候甚至是无力的。我们有选择“不使用”的权力吗?我们的意愿能够得到重视吗?我们是否能够判断,一个技术运用在什么地方是合适的、在什么地方是过度的?理想的市场场景里,我们可以用脚投票;而当下的市场,资本的强大加上信息的不透明,让用户处于无权、无声的劣势。
无处不在的摄像头,让这个社会变得越来越像福柯笔下的“环形监狱”(Panopticon)――监控无处不在,能看到所有人、识别所有人,而被观看者甚至无法得知监控在哪里、从何而来。一个良性发展的技术,不应该是这样。
技术的“潜台词”
技术一旦投入社会,就不再仅仅是“工具”了。一个技术的使用,数据与数据构建的身份,为人与人、人与机构之间的关系定下了基调,也为这些“数据”赋予了社会含义。在购房处被“识别”,意味着我们和售楼处的关系,变成了“奸商”和待宰的购房客之间的关系;在公司的楼道里,因为多蹲了10分钟厕所而被“识别”,意味着我们和公司的关系,变成了资本家和必须要被压榨出每一分钟劳动力的打工人的关系。
但我们之间的关系,一定、必须是这样的吗?我们真的没有别的选择了吗?在商业交易中,双方应该是站在平等对话的基础上协商交易的关系;在雇佣劳动中,双方应该是相互信任、付出劳动并得到回报的关系。面部识别和监控技术的滥用,扭曲了这种关系,将公平与信任踩在脚下。
面部识别和监控技术的滥用,将公平与信任踩在脚下|图虫创意
隐私是人格尊严的一部分――它代表着一个人有能力且有权利支配自己的空间,不受他人的干扰;也意味着对隐私的保护,能够最大程度地尊重人的自由和创造性,而不是把人看作一个随时需要监控、需要操纵的螺丝钉。不管技术如何发展,我们的底线是,一个安全、方便的社会,不应该以牺牲人的尊严为代价。
所以,技术背后的“潜台词”,可能比技术本身更加重要。追问技术存在的理由,追问技术与人的关系,是让一个技术变得不再“可怕”的第一步。
比如,在人流密集的公共场所,机场、火车站等地,我们实际上是让渡自己一部分的隐私,去换取方便、安全;这用别的方式或许很难达到、不够经济;或许能够阻止巨大的灾难――911事件发生时,监控录像实际上已经拍到了恐怖分子的脸,但并没有识别出来。
我们让渡自己一部分的隐私,去换取方便、安全|图虫创意
但在小区、在学校、在火锅店,每个场景都是不同的,都有着自己的“潜台词”――为什么要用它?数据的作用是什么?数据存储在哪里?除了这个方法之外,有没有别的方法?这对被监控、被识别的人的好处在哪里?是否知情、是否予以了同意?这些都是在技术被应用之前,需要提出的问题。
希望我们将来的社会,还能让我们坦然“面”对。
参考文献
[1]Gates, K. A. (2011). Our biometric future: Facial recognition technology and the culture of surveillance (Vol. 2). NYU Press.
[2]Alterman, A. (2003). ``A piece of yourself'': Ethical issues in biometric identification. Ethics and information technology, 5(3), 139-150.
[3]Van Oenen, G. (2006). A machine that would go of itself: interpassivity and its impact on political life. Theory & event, 9(2).
[4]Introna, L. D. (2005). Disclosive ethics and information technology: Disclosing facial recognition systems. Ethics and Information Technology, 7(2), 75-86.
作者:李子 栗子
编辑:Luna
本文来自果壳,未经授权不得转载.
声明:本文内容来源自网络,文字、图片等素材版权属于原作者,平台转载素材出于传递更多信息,文章内容仅供参考与学习,切勿作为商业目的使用。如果侵害了您的合法权益,请您及时与我们联系,我们会在第一时间进行处理!我们尊重版权,也致力于保护版权,站搜网感谢您的分享!