刷脸时代,我的脸被偷了
(资料图片仅供参考)
这是一个看脸的时代。乘坐飞机、高铁需要刷脸,入住宾馆、酒店需要刷脸,进入单位、小区需要刷脸,观看演出、赛事需要刷脸,办理各种业务需要刷脸,甚至疫情期间使用卫生间也需要刷脸。我刷脸,故我在。
这些每天可感知的刷脸,还只是人脸识别技术应用场景的冰山一角。在机场、车站、码头、地铁、街道、商场、酒店、餐馆、教室等公共空间,还有数不胜数的无感式图像采集探头,它们睁大着不知疲倦的“眼睛”,默默地、但一丝不苟地注视着你我的一举一动。
将人脸图像信息数字化,辅之以人工智能化数据比对,从而对自然人进行身份识别,这是人脸识别技术的底层逻辑。随着数字化和人工智能技术对社会生活全方位的渗透,人脸识别技术的应用场景不断拓展。过去几年的疫情防控,更是为这种技术应用提供了必要性及正当性加持。
以人脸识别为代表的数字技术对国家和社会治理领域的全方位渗透,符合“目标—手段”的逻辑。数字技术与当代公共管理的风险管控目标之间存在高度耦合。在现代风险社会中,治理目标已从传统的秩序维护和修复,逐步转向风险预防和调控。政府需要针对各种不确定的经济和社会风险进行未雨绸缪式的调控,以高效、精准地维护社会安全与秩序。
对个人的身份进行精准化、大规模识别和监控,恰是对各种社会风险进行管控的数据基础。以大数据为基础,结合算法、自动化决策等技术,可大大扩展国家和社会治理所涵盖的人口与地域范围,化解一系列治理难题。因此,一旦某种新技术兴起,其实现治理目标的潜在效用和规模效应自然得到青睐。这也正是人脸识别技术应用无处不在、遍地开花的底层动力。
然而,我们必须警惕的是,数字技术对国家和组织的“赋能”,并非技术的免费午餐。数字赋能并非没有风险,可能为各种权力滥用披上“摩登”的技术合理性外衣。在国家和社会治理的数字化转型进程中,我们需要对技术的风险进行充分认知并予以规制。
以人脸识别技术为例,无论是1:1还是1:N的人脸数据比对,都需要采集人脸信息,需要建设不同规模的人脸信息数据库。说到底,就是将人当做数字化的对象和治理工具。人脸信息是自然人生物信息,法律上属于“敏感个人信息”,涉及个人尊严、隐私等各种人格权益。如果这些信息被不当采集、处理、使用,将会给个人的人格、隐私、财产等权益带来巨大侵害风险。例如,没有门槛的人脸识别应用,将导致人脸信息被过度甚至非法采集,构成对人格权和个人信息权益的侵害,也会带来巨大的数据安全风险。
人脸识别技术应用的失范,已经引发一些列社会问题,例如倒卖人脸信息、非法查阅甚至买卖图像监控信息、运用人脸信息进行深度合成从而进行诈骗、敲诈勒索等犯罪活动;一些犯罪分子利用非法手段破解人脸识别验证程序,实施窃取财产等犯罪。可以说,如果不对人脸识别技术的误用和滥用进行有效规制,人脸识别将会毫无脸面。
从现实看,人脸识别技术的风险正成为明显而急迫的危险。全国信息安全标准化技术委员会等机构发布的《人脸识别应用公众调研报告》显示,在两万多名受访者中,94.07%的人表示用过人脸识别技术,64.39%的人认为人脸识别技术有被滥用的趋势,30.86%的人反映已经因为人脸信息泄露、滥用等遭受损失或者隐私受侵犯。因人脸信息泄露导致“被贷款”“被诈骗”及隐私权、人格权被侵害等案例日益增多。
尽管我国刑法、民法典、网络安全法、数据安全法、个人信息保护法等法律法规均对个人信息保护和数据安全做了规定,但针对人脸识别的现实问题,制定专门的技术应用安全规范,以明确人脸识别技术应用门槛和条件,保护个人信息权益和数据安全,遏制人脸识别技术滥用,在当前具有必要性和紧迫性。
在这个背景中,国家网信办近日公布了《关于人脸识别技术应用安全管理规定(征求意见稿)》(下称《规定》)并向社会公开征求意见,可谓正当其时。《规定》对人脸识别技术应用的门槛、设备安装到图像采集规范,数据的处理、存储、提供、删除等规则、技术应用的准度、精度到置信度阈值、技术使用者或服务提供者的责任义务等,作出了有针对性的规定,力图实现对人脸识别技术应用的全要素监管和全流程规范。
对人脸识别技术的管理和规范,核心是对技术应用的风险管理,这需要在充分认知技术应用的全要素和全流程风险源基础上,进行有针对性的规则设计,其关键在于合理设定人脸识别技术应用的红线、底线、控制线和安全线。
首先,要划定人脸识别技术应用的“红线”。当前存在的一个突出乱象是:人脸识别和监控探头无处不在,泛滥成灾。划定红线,就是要确定最低限度的私密空间。风能进,雨能进,探头不能进。红线是“禁区”,禁区之内禁止人脸识别和监控。针对人脸识别泛滥的突出问题,《规定》明确:在公共浴室、卫生间、酒店客房、更衣室等涉及个人隐私等场所,不得安装图像采集、个人身份识别设备。这一规定看起来似乎不言自明,但划定明确的、不可触碰的“红线”,有助于培育社会的“私人空间”意识,对个人的人格和心理安全感具有积极影响。此外,《规定》提出了在宾馆、银行、车站、机场、体育场馆、博物馆、图书馆等经营场所,除非法律、行政法规有明确规定,否则不得以办理业务、提升服务质量等为由强制个人接受人脸识别验证身份。这实际上为这些经营性场所使用人脸识别技术印证身份,设定了很高的门槛,同样也有助于抑制人脸识别技术冲动。《规定》还有针对性地明确了,物业服务企业等建筑物管理人不得将使用人脸识别技术验证个人身份作为出入物业管理区的唯一方式。可以说,如果这些“红线”能够得到落实,将在源头上对人脸识别的滥用产生遏制效果,我们所遭遇的到处刷脸的无奈困境将得到一定缓解。
其次,要划定人脸识别技术应用的“底线”。即便在红线之外可以应用人脸识别技术的场域,也必须满足底线要求。这一底线要求就是“目的明确”和“充分必要”原则。处理人脸信息,必须说明具体的、特定的目的;必须证明人脸识别对于实现目的的必要性和不可替代性。《规定》在个人信息保护法所规定的目的合理和最小必要原则基础上,针对人脸信息的敏感性和重要性,进一步规定“只有在具有特定的目的和充分的必要性,并采取严格保护措施的情形下,方可使用人脸识别技术处理人脸信息”。而且,“特定目的”和“充分必要”二要素缺一不可。换言之,即便具有特定目的,但如果采用其他非人脸识别技术可以实现目的,也不得采用人脸识别处理个人信息。
再次,要设定人脸识别技术应用的“控制线”。人脸信息是敏感个人信息,必须尊重和保障个人的自主性和控制能力。面对人脸识别,个人应当有权说“不”,这就是个人对技术的拒绝权。《规定》明确:使用人脸识别技术处理人脸信息,除非法律、行政法规有相反规定,否则必须取得个人“单独同意”或者“书面同意”。单独同意,就是禁止采取“一揽子”条款,而必须单独就处理个人的人脸信息获得个人同意。需要特别指出的是,个人同意应当是个人在充分知情的基础上做出的。使用人脸识别的主体必须以清晰易懂的语言,告知个人处理人脸信息的目的、用途及必要性。这种“告知—同意”规则在一定程度上构成对人脸识别技术的控制线。
最后,要设定人脸识别技术应用的“安全线”。无论是人脸比对还是公共场所监控,处理的都是敏感个人信息,且数量巨大。这些数据很容易成为违法犯罪活动的攻击目标,时刻面临巨大的安全风险。从个人的角度来看,没有数据安全,就没有安全感,就可能时刻受困于焦虑和不安的心理折磨。从社会治理角度看,没有数据安全,公众对人脸识别技术就没有信任,就会以各种形式进行抵制。现实中,人脸识别和公共场所监控等敏感信息被违规查阅、复制、公开、传播的情形时有发生,数据安全堪忧。因此,“安全第一”不能只是喊喊口号,而必须落到实处。《规定》凸显了安全责任保护义务这一核心,围绕设备安全、安装安全、运行安全、数据库安全、管理人员安全等要素设定安全管理标准;从数据采集、存储、处理、转移、使用、销毁等环节规范数据处理全流程,这可为相应的各种技术标准和运行规范提供指引。
随着技术迭代发展,技术权力与传统权力之结合日益紧密,在应用广度和深度上不断拓展。数字技术在对公共管理进行赋能的同时,也塑造了日益庞大的数字技术系统。人脸识别是当今数字化治理的一种典型技术。在国家治理的宏观视角中,人脸识别和公共监控等技术可能被当做社会管理和规训的工具。不过,“全景敞视”式的社会治理,表面上似乎有助于规制社会风险,但其本身也可能是一种风险。归根结底,技术手段的应用必须服务于价值依归。好的治理应当以人为本;有效的治理技术离不开对人的尊重。
因此,无论是从价值理性还是工具理性角度看,对人脸识别技术的规制,必须在追求技术赋能的同时,把持住技术向善的方向,否则就会出现主客体异化悲剧。实现技术向善,需要倡导技术伦理,但主要还是靠法律规制。伦理与法治结合,才能有效维护好人脸识别技术的脸面。
(作者系北京大学法学院教授)
作者:王锡锌
责任编辑:
关键词:
推荐阅读
关于我们 广告服务 手机版 投诉文章:435 226 40@qq.com
Copyright (C) 1999-2022 baidu.baiduer.com.cn baidu爱好者 版权所有 联系网站:435 226 40@qq.com