人脸识别60年︱校园、课堂、售楼处,人脸识别应该有禁区吗
2019年,瑞典数据保护局对一所高中开出罚单,认为校方使用人脸识别技术进行考勤违背了“必要性”原则,人脸信息的敏感性更高,校方完全有其他低风险的选择。这也是欧盟通用数据保护条例GDPR通过后的首张罚单。必要性之外,GDPR还列出了诸多原则,“相称性”要求在使用目的和手段之间权衡利弊,“目的限定原则”要求,出于某个特定目的采集的数据不能被用于其他“不相容”目的,“数据最小化原则”则要求不得过度采集。然而,这些设想美好的原则在实操环境已经遭遇了各种问题。
本文译自纽约大学AI Now研究中心的报告“Regulating Biometrics: Global Approaches and Urgent Questions”(生物识别技术监管:全球举措及关键问题)第一章,为便于理解,我们对原文进行了必要的补充和修改。
2019年,中国药科大学部分试点教室安装了人脸识别摄像头,用于日常考勤和课堂纪律管理,试图杜绝逃课和“替同学签到”的现象,但此举也引发争议。图片来源:东方IC
许多地区的公共部门正将生物识别技术应用于城市基础设施建设,对此数据保护法能做什么?
必要性(necessity)和相称性(proportionality)是国际人权法中基本的合法性原则,这也反映在世界各地的数据保护法中。这两大原则要求,非必要情况,不得侵犯隐私或数据保护权利,且应当在使用方式和预期目标之间平衡。相称性原则在世界各国的隐私权判例中也极为重要,当然存在一些地区差异,其测度通常也会权衡个人隐私与可能与之冲突的其他权利或公共利益。
数据保护法中,这些原则体现在可采集的数据类型、使用方式及可存储时间上。GDPR和一些类似的数据保护法列出了“数据最小化”原则(data minimization),要求机构可采集的个人数据需限制在“充分、相关,就使用目的而言必要”的程度。就执法机构而言,《数据保护法实施指令》(Data Protection Law Enforcement Directive,DP LED)要求采用更高的标准来判定采集生物识别数据是否“必要”。
这些规定质疑,很多场景下,是否有收集生物特征数据的必要。例如,瑞典数据保护委员会(Swedish Data Protection Authority)判定,校方出于考勤目的使用人脸识别违背了“相称性原则”,因为有其他侵入性更小的手段,进而在学校中禁用人脸识别。法国数据保护局(French Data Protection Authority,也被称为CNIL)和马赛地区法院也做过类似裁定,禁止在法国采用人脸识别考勤系统。
为确保人道主义援助物资的有效发放,国际红十字会使用了生物识别技术,但他们并未将这些数据视作“金矿”,而是放弃建立一个中心化的数据库。图片来源:国际红十字会官网
本报告中,Ben Hayes和Massimo Marelli将会谈及国际红十字会(ICRC)的案例,他们在分发人道主义援助物资时使用了生物识别技术,同时注意保护“相称性”原则。红十字会会确定有必要使用生物识别系统,但他们设计了一套去中心化的系统,由用户持有安全存储自己生物识别数据的卡,红十字会不会保留或为了其他目的使用这些数据,也放弃建立数据库。如果人们希望撤销或者删除自己的数据,只需退还卡片,或者自行销毁。(编者注:在接受澎湃新闻采访时,Amba Kak谈及,想象一个中心化的数据库,存储了大量难民的生物特征数据,它会被视作“蜂蜜罐”honeypot,红十字会选择放弃打造这样一种数据库。)
不幸的是,实际生活中,人们鲜少使用这些原则去挑战生物识别系统和数据库的创建,特别是系统初步建立或“试点”阶段。通常,对“必要性”的论述是为了促成生物识别系统的应用(编者注:如企业出于合规目的),而非限制。
即便一些国家或地区的法律中提及数据最小化原则,在面对“效率”、“法律和秩序”或“国家安全”等词语时,政府会为技术应用大开绿灯,而不会审查目的与手段是否相符。
2020年,欧洲数字权利组织(EDRi)发布了关于生物识别监控的报告,欧盟通用数据保护条例GDPR在各国的实施力度不一,报告认为,虽然各国都设置了国家级别的数据保护委员会,但它们缺少资源,相对弱势。
一些国家尚未出台数据保护法,也未成立数据保护主管机构,面对将生物识别数据纳入国民身份系统的项目时,人们通常会忽略相称性原则,容易认同“技术更高效”等泛在话语,甚少去讨论,是否存在替代性、较少侵权的方式。
“目的限制”原则(purpose limitation)限制了超出最初采集数据用途之外目的的数据使用,出于特定用途采集的数据不可用于其他“不相兼容”的目的。然而,泛化的“安全”要求常常模糊了犯罪、福利和移民程序之间的界限,对“兼容”做了模糊化处理(编者注:即哪些使用目的“相互兼容”?谁说了算?)。
在美国联邦安全社区计划(S-COMM)之下,各州都需向罪犯数据库和移民数据库提交被捕者的指纹,移民和海关执法局(ICE)可以访问这些信息。在美国多个州,ICE还要求对驾照数据库进行人脸识别搜索的权限。澳大利亚内政部则一直在对各州驾驶执照数据库进行汇总,以用于更广泛的警务和执法目的。印度将生物识别纳入国民身份ID的Aadhaar计划,最初是为了匹配社会福利和物资发放,但政府也表示可能在特定情况下出于国家安全目的使用这些数据,印度国家犯罪记录局(National Crime Records Bureau)已公开表示,希望利用该系统开展刑事调查。这些系统的设置可以规避和消除数据使用的目的限制。
法规应在多大程度上依赖技术标准制定机构所设定的性能和准确性标准?
目前,围绕生物识别技术的讨论关注准确性和“误差率”的度量标准,在机器学习领域,它们也被用来比较不同系统的性能。为“证明”系统的有效性,证明自动化相优于人工,开发、营销和应用系统的人会声明自己使用的这种系统具有一定的准确性(accuracy claims)。
然而,面对某些根据狭义标准测度出的、声称具有“高准确率”的人脸识别系统,当人们按照年龄、种族、性别和残疾等人口统计数据进行细分时,准确率降低了。而“误差”并非均匀分布,时常含有种族、性别、体能偏见(编者注:即对残障人士更不友好),与既有的不平等相关。
为解决这一问题,研究者呼吁对特定人群和表型亚组的(编者注:系统识别)的准确性进行审核,并采取措施对系统误差进行纠偏。
审核需要求助于技术标准制定机构,设定系统准确性、性能和安全性的行业准入基准。比如美国国家标准技术研究院(NIST)2019年推出的“人脸识别供应商测试”,他们可以评估算法在面对数据集涵盖的不同统计人群时的差异。
美国国家标准技术研究院NIST推出了“人脸识别供应商测试”Face Recognition Vendor Test。图片来源:NIST官网
监管机构和立法部门开始召集技术标准制定机构进行审核,为技术的准确性、性能和安全性设定基准。2020年3月,英国平等与人权委员会(UK Equality and Human Rights Commission)叫停了人脸识别技术在英格兰和威尔士的应用,直到独立审查完成,这些审查会分析算法对某些弱势群体的歧视问题。
2020年3月通过的《华盛顿州SB 6280法案》要求人脸识别技术开发公司合作,允许独立测试,测试系统在面对包括种群、肤色、民族、性别、年龄或残疾状况在内的各个亚群体时的准确性和偏误。如果独立测试显示确有“不公平表现差异”(material unfair performance differences),技术开发者必须在90天内纠正问题。
另一个正在拟议的联邦法案(S.2878:2019面部识别技术保证法案)要求联邦执法机构与NIST合作建立测试系统,以确保算法在面对不同性别、年龄和种族时,准确性相对一致。
这些标准走在正确的方向上,但它们远非衡量系统性能的唯一标准,它们并不能充分反映这些系统在使用时可能产生的更广泛的歧视性影响。
首先,研究人员和倡导组织发现,许多“通过了”当前基准评估的系统在现实环境下使用时仍然表现不佳。另外,当前还没有标准的操作方式来记录和传达基准数据集的历史和限制,因此没有办法确定它们针对特定系统的适用性或针对特定环境的适合性。
此外,单凭设置一个技术性限值对歧视性影响进行判断,可能会在实操时造成更大的影响。例如,人脸识别系统在少数族裔社区往往有更大规模的应用(编者注:比如少数族裔社区设置了更多摄像头),这本身已是歧视。
值得注意的是,许多情况下,基准只是一个“复选框”(checkbox),技术供应商和科技公司们可以自行勾选,声称技术是安全和公平的,而无需考虑其使用方式,或在特定环境下的适用性。
制图:白浪 有必要性的适当的监控及识别系统可以,无必要性就侵犯人的隐私权了。 技术伦理缺失
页:
[1]