【数字法学研究】
论新兴科技法律管理的范式迭代
——以人脸识别技能为例

许 可
〔摘 要〕新兴科技法律管理是当代法学的核心议题之一。人脸识别技能以数据为体、以人工智能算法为用、以人类自身为工具,是新兴科技的范例代表。立足于科学哲学的洞见,包括人脸识别技能在内的科技法律管理可分为:基于“科技工具论”的管理、基于“科技本色论”的管理和基于“社会建构论”的管理。只管三者在管理工具、管理法律和管理阶段存在差异,但都割裂了“人—技能—社会”的联系,亟待通过“科技系统论”予以统合。基于科技系统论的人脸识别技能管理,遵照技能和法律的共同优化原则,以科技系统内各“人类行动者”为工具,凭借法律权利、责任、任务的设定勉励各方开展利益折衷,终极迈向科技善治。
〔关键词〕新兴科技;管理范式;科技哲学;人脸识别
〔基金项目〕国家社会科学基金重大项目(22&ZD147)
〔作者简介〕容许,对外经济贸易大学法学院副教授。
〔中图分类号〕D922.1 〔文献标识码〕A 〔文章编号〕1001-6198(2023)06-0111-10
“新兴科技”(Emerging Technologies)与法律之间的紧张和互动关系已成为法学的核心命题之一。从人际关系的可打算化到人的数据化,再到生活天下的虚拟化,新兴科技不但改造了外部系统,也改造了我们自己。正是由于新兴科技的自反性和非线性,它对人类社会与法律的寻衅才更加繁芜而深刻。本文所聚焦的“人脸识别技能”(Facial Recognition Technology)正是此种新兴科技的范例例证。作为生物识别技能的子集,人脸识别技能是利用卷积神经网络自动学习、局部二值模式(Local Binary Pattern)的强度影像 (Intensity Images)技能、图像序列技能(Video Sequences)、3D信息技能等〔1〕,对静态或视频中的人脸图像进行特色提取与分类,从而用于个人的身份鉴别、验证与剖析。与指纹识别、掌纹识别、虹膜识别、体态识别比较,人脸识别技能因其非打仗性、便利性、多维性而成为最广泛利用的生物识别技能。在“自然人”迈向“数字人”的进程中,人脸识别技能发挥着不可替代的浸染,由此引发的对人之主体性的侵蚀也随之成为法律关注的核心问题。与既有人脸识别的法学研究不同,本文试图从“作甚科技”的哲学追问入手,检视不同科技不雅观念下的管理范式,进而反不雅观以人脸识别技能为代表的新兴科技管理,以期在范式改造和时期演进中探寻更广阔也更具启示性的科技管理之道。
一、新兴科技法律管理的经典范式
目前,对“科技”的观点存在诸多理解,本文试图从工具论、本色论、建构论的理论原型出发,删繁就简地整合成如下三种科技管理范式。
(一)基于“科技工具论”的法律管理
“科技工具论”(Technological Instrumentalism)将科技视为做事于人类的工具。作为最契合社会知识的不雅观点〔2〕,科技工具论包含着两个独立但关联的主见:一是科技是旨在知足人类特定须要与目的的手段,因而它本身不包含任何代价,其既非恶非善,又可恶可善,没有追求完美的空想,也无毁灭的邪恶;二是科技产生何种影响与其自身无关,而取决于人们如何利用它。所谓善恶并非科技的性子,相反,其指向了利用者的行为。基于此,法律通过一系列案件将“科技工具论”演绎为“科技中立原则”(Technology Neutrality)。在历史上,这一原则于1908年在美国怀特史密斯音乐出版公司诉阿波罗公司案中被提出。〔3〕在该案中,原告声称阿波罗公司以乐谱形式出版的钢琴卷轴陵犯了其音乐著作权,但法院终极剖断:自动转轴钢琴因操作者机器式地迁徙改变机器而发生发火声音,只要技巧闇练,即可操作此设备演奏原来录制在音乐纸片上的乐曲,此种技能并未侵害原告的著作权,因而驳回原见告求。〔4〕1984年的索尼案进一步明确了该原则。法院在讯断中指出:打字机、摄像机、复印机等通用商品,从技能上说均对人们利用实在行的侵权行为有所帮助。但是,若把这种帮助看作充分的任务根本,将会大大扩展侵权法的适用范围,法院不能仅因制造商应该知道侵权可能性的存在,就哀求其承担帮助侵权任务,否则必将阻碍商业和科技的发展。索尼案将“科技中立原则”详细化为“本色性非侵权用场”规则,即对付“被广泛用于合法的、不受争议用场的技能”的研发者和产品的制造商并不对利用者的侵权行为担责。由此,人们将这一案件视为技能和消费者的胜利,科技中立原则也被看作技能时期的“大宪章”(Magna Carta)。[1]在TCL互联网电视著作权侵权案中,我国法院亦借鉴该原则,认为互联网电视机虽可作为信息网络终端,但倘若其制造商并未参与侵权行为,则仅仅是一种工具的制造者和供应者,并不因此赔偿丢失。[2]
基于工具论的逻辑,法律所欲规制的绝非中立性的新兴科技及其研发者,而直接指向了利用者。但是,新兴科技产品/做事的供应者并不一定免责。一方面,在新兴科技产品无法兑现其技能承诺时,即构成 “产品毛病”,供应者答允担产品任务。以自动驾驶汽车为例,车辆摄像头、传感器、雷达等感知系统功能障碍或安装缺点,导致无法创造周围物体、行人或车辆并发生碰撞即属于“制造毛病”;未充分预估驾驶人可能放弃对车辆掌握并做出安全预案,或具有深度自主学习能力的人工智能的决策行为无法掌握,即属于“设计毛病”;生产者未对自动驾驶系统算法进行阐明解释,使消费者对人工智能产生了盲目自傲,即构成“警示毛病”〔5〕。另一方面,既然新兴科技是供应者的工具,那么在供应者能够预见和掌握并匆匆成或放任其利用效果时,即答允担因此发生的不利法律后果。〔6〕此外,在上述任务机制无法高效、及时、充分补充危害时,可以引入任务保险制度,进行社会化的救援,疫苗事件、核事件、自动驾驶汽车的交通事件均是任务保险的适用例证。〔7〕
(二)基于“科技本色论”的法律管理
与科技工具论比较,“科技本色论”(Technological Substantivism)并不将科技看作无目的工具的凑集,而因此为科技是一种自主的、使人类适应其目的的非人类系统。就此而言,不是人利用工具,而是工具在利用人,极度地说,人是科技的工具。〔8〕我们不妨由浅入深地把握这一理论的意蕴。首先,科技有着自身的性子、力量和规则,其独立于自然规律和社会规律之外,不但是诸多构成模块之间的自组织,也是自我创生的。借用经济学家阿瑟的说法,科技能够繁殖、成长、反应温柔应周围环境、摄入和开释能量以保持自身。因此,它是有生命的有机体。〔9〕这解释,科技可以自身设定发展路线,趋于自我封闭和自我决定。其次,科技的独立性反过来造就了一种具有特定政治模式的公共关系,发展出一种与科技相融的社会行动和社会生产的社会形态。在理论脉络上,该等本色论将导向科技决定论,在历史发展的过程中,颠覆性、根本性的新兴科技必将对社会造成不可抗拒的决定性影响。末了,既然科技已成为展现“存在”的支配性办法,它自然也是我们生存的环境和“座架”(Ge-stell)。在科技的裹挟下,人不再是技能的主导者,而仅仅被动参与个中,不但失落去了掌握,还失落去了自由。
基于科技本色论的理路,科技自身就应被法律驯化,此即法律对科技的“牵制模式”〔10〕。作为对科技中立的否定,牵制模式将科技“人为工具化”,谢绝将科技的构造、功能和社会反馈作为其评判标准,而是将国家目标和社会不雅观念全面贯彻到科技之中,一旦科技不能知足或与之冲突,法律就否定或限定其存在。例如,欧盟《人工智能法》草案明确禁止多种“不可接管风险”的人工智能技能,并对“高风险”人工智能技能设定严格哀求。为戒备科技这种“异物”引发人的“异化”,科技自研发开始,便在法律的调控之下。随着人工智能的迭代,人类与科技之间的关系从“主体—客体”的做事变为主体间的互换,使得新兴科技的法律地位从“客体”逐渐转向“主体”,一种新的法律牵制构想开始涌现。2017 年《欧盟机器公民事任务法律规则》建议明确了“网络物理系统、自主系统、智能自主机器人及其子类别的共同定义”,同时考虑为具有目的性系统的机器人授予“电子人”身份。〔11〕只管强人工智能远未到来,但为平衡研发者、生产商、所有者、利用者、第三人等主体之间利益,人们建议将部分高等人工智能体扩展阐明为法律主体,从而对其设定义务、苛以任务或特殊保护。〔12〕
(三)基于“社会建构论”的法律管理
“社会建构论”(Social Constructivism)反对科技的自我发展及其对社会的决定浸染,转而主见科技是社会建构的产物。循此,从科技的构思设计到产品运用扩散的全体过程中,经济、社会、政治、文化和意识形态等诸多成分共同参与并彼此调和。〔13〕就此而言,科技本身并非清闲自为,相反,它应被理解为不断在社会选择中变革着的“社会过程”,因而深深地嵌入社会之中。基于此,社会建构论以非实质主义和历史性的态度去检视科技的脉络,力求打开科技的黑箱,利用社会学的方法剖析不同行为者和社会群体参与科技形成的活动,来稽核社会是如何影响科技的形式和内容。从强社会建构论的视角看,一项科技没有任何独立的性子、力量、效应,如果它能有某种影响的话,那么这种影响一定来自社会的选择,并在整体上处于社会掌握之下。〔14〕
基于社会建构论的洞见,法律对科技的回应就要放宽视野,将与科技干系的所有社会群体的互动和协商置于中央,由此衍生出哈贝马斯意义上的“沟通性管理”〔15〕。详言之,当代社会的新兴科技已经是一种潜在的毁坏者,科技权力的边界绝非如左券型政府那样被一次性划定,也并非如反思型政府一样由科技系统自我划定,而应由民主立法过程决定和调度。因而,在管理新兴科技时,国家应为所有短长关系人的参与供应渠道,为公共推理与公私互助搭建制度平台,力争匆匆使受到国家规制影响的个体或组织在谨严论辩根本上作出决定。同时,考虑到科技弱势群体在经济资源、政治机会和信息获取上的欠缺,国家还应进行倾斜性的“赋权”(Empowerment),以实现真正意义上的审媾和决定。相应地,科技管理紧张不是基于国家规制来直接折衷社会活动,而更多的是通过组织非国家主体的有效参与,确保社会政策的公共代表性以及干系机构的可问责性。
二、基于经典范式的人脸识别技能法律管理
科技的不同不雅观念令新兴科技法律管理呈现出不同的面貌:科技工具论的法律管理以“科技利用者”以及特定环境下的“科技产品/做事供应者”为工具,紧张通过侵权法、刑法等任务法在事后深究任务;科技本色论的法律管理以“科技自身及其研发者”为工具,紧张通过行为牵制等行政法在事前和事中予以掌握;社会建构论的法律管理以“科技的各利益干系方”为工具,紧张通过民主立法程序等宪法性规则确定整体架构。为全面比较三种范式并将它们进一步适用于人脸识别技能的管理,表1从管理主体、管理法律和管理阶段三方面梳理了三种范式各自的紧张特色。
表1 三种科技不雅观念下的法律管理
科技不雅观念
管理主体
管理法律
管理阶段
科技工具论
科技利用者
科技产品/做事供应者
任务法
事后
科技本色论
科技及其研发者
牵制法
事前、事中
社会建构论
科技各利益干系方
程序法
事前
(一)基于“科技工具论”的人脸识别技能法律管理
遵照该范式的人脸识别技能管理一样平常将“人脸识别技能”视为利用者处理人脸信息的特定工具,因此管理重点依然落在对技能以外的一样平常性权利(如数字人权、人格权等)的保护之上。例如,2019年瑞典数据保护机构对安德升托普中学罚款20万瑞典克朗,情由是其安装人脸识别设备用于学生考勤的做法违反了欧盟《一样平常数据保护条例》(GDPR)第5条“数据处理最小必要性原则”和第7条“赞许须为自由作出(freely given)”的哀求。[3]我国亦遵照了该管理逻辑,最高公民法院发布的《关于审理利用人脸识别技能处理个人信息干系民事案件适用法律多少问题的规定》以“侵害自然大家格权柄”作为规范根本。这一司法思路亦被我国400余起人脸识别行政惩罚案件所验证。〔16〕循此,人脸识别技能的管理应以“敏感个人信息”保护为主线。
第一,人脸识别应该具有特定的目的和充分的必要性。相较于一样平常个人信息,对人脸识别信息的保护更加严格。因此,《个人信息保护法》在目的限定和必要原则的普遍适用规范外,额外强调特定目的和充分必要。这里的特定目的比第6条“明确、合理的目的”的哀求更高,可理解为法律、法规及条约明确规定、由处理者的特定身份和特定活动所决定的“详细目的”;这里的充分必要亦高于第6条“与处理目的直接干系”的哀求,可理解为“特定处理目的和人脸识别信息的处理活动”之间存在“充分必要关系”,即处理人脸识别信息是特定目的实现的充分且必要条件。职是之故,国家网信办发布的《人脸识别技能运用安全管理规定(试行)(搜聚见地稿)》(以下简称“《人脸识别管理规定》”)第4条明确,若存在其他非生物特色识别技能方案,能够实现相同目的或者达到同等业务哀求,应该优先选择非生物特色识别技能方案。〔17〕
第二,对人脸识别应该开展个人信息保护影响评估,并采纳严格保护方法。根据《个人信息保护法》第55、56条,人脸识别信息处理属于高风险的处理行为,在开展干系活动之前,应评估其处理目的与处理办法等是否合法、正当、必要,对个人权柄的影响及安全风险,所采纳的保护方法是否有效及与风险的适应程度等,以判断其对个人权柄的影响程度及风险掌握有效性。除上述评估内容外,《人脸识别管理规定》第15条进一步增设:(1)是否符合法律、行政法规的规定和国家标准的逼迫性哀求,是否符合伦理道德;(2)是否限于实现目的所必需的准度、精度及间隔哀求。此外,处理者在处理人脸识别信息时,还应制订相应内部管理制度和操作规程、提高操作权限、制订并组织履行安全事宜应急预案以及对人脸识别信息作去标识化、匿名化处理等。
第三,人脸识别利用者应该履行增强奉告责任。所谓“增强奉告责任”,意指在个人信息处理者除奉告(1)个人信息处理者的名称或者姓名和联系办法;(2)个人信息的处理目的、处理办法,处理的个人信息种类、保存期限;(3)个人行使权利的办法和程序外,还要采纳昭示办法奉告处理人脸识别信息的必要性和对个人权柄的影响。个中,必要性如前所述。对个人权柄的影响亦与个人信息保护影响评估的结果保持同等,基于信息表露有效性的考虑,可以参考国家标准《个人信息安全影响评估指南》,从影响个人自主决定权、引发差别性报酬、个人名誉受损和遭受精神压力、个人财产受损四个维度,列出严重、高、中、低四种影响程度。以此不雅观之,《人脸识别管理规定》第7条针对公共场所安装图像采集、个人身份识别设备“设置显著提示标识”的规定尚不充分,还应设置二维码,扫描后即可展示上述增强奉告的内容。〔18〕
第四,人脸识别利用者当取得信息主体的单独赞许,但根据《个人信息保护法》第13条规定无须取得个人赞许的除外。作为“单独赞许”,即个人对人脸识别信息的处理行为及其规则,能够独立于其他个人信息处理行为及规则自由、明确、详细地作出赞许。详言之,个人对人脸识别信息的处理者、处理目的、处理办法应作出全面、昭示的赞许,采纳清楚、肯定的行动(a clear and affirmative action),而纯挚沉默(silence)、已经预设勾选赞许(pre-ticked boxes)或是不作为(inacti‐vity)等,都不构成有效的赞许。就此而言,只管我国“人脸识别第一案”[4]在《个人信息保护法》生效之前,但法律审查的重点同样落在了个人是否作出明确的赞许之上。其次,个人对人脸识别信息处理的赞许应该与其他的个人信息处理的赞许相区分,以破除一揽子赞许和捆绑赞许。再次,处理者不得通过敲诈、胁迫、勾引等违反诚信原则的办法,使个人陷入意志不自由的困境,作出违背志愿原则的赞许。当人脸识别信息不属于供应产品、做事所必需时,个人完备可以谢绝,且该谢绝操作不得影响个人利用产品或做事。末了,并非人脸识别信息的所有处理活动都应取得个人单独赞许:在为订立、履行个人作为一方当事人的条约所必需,或者按照依法制订的劳动规章制度和依法签订的集体条约履行人力资源管理所必需,如开立金融账户;为履行法定职责或者法定义务所必需,如公安机关依法侦查时;为应对突发公共卫生事件,或者紧急情形下为保护自然人的生命康健和财产安全所必需以及法律、行政法规规定的其他环境时,可豁免个人单独赞许。
(二)基于“科技本色论”的人脸识别技能法律管理
遵照该范式的人脸识别技能管理将人脸识别技能本身视为风险源泉,从而明确禁止该技能的利用或限定严格的准入条件。例如,在美国联邦层面,《商业人脸识别隐私法案》《人脸识别技能授权法案》《道德利用人脸识别法案》《2002年人脸识别法案》相继提出,试图明确政府机构不得安装任何与人脸识别技能相连接的摄像机,不得在未经授权的情形下获取或利用通过人脸识别技能得到的个人信息,不得在没有逮捕令的情形下利用人脸识别技能来识别特定个人。在大洋彼岸,欧盟的《人工智能法案》拟禁止可能给人类安全带来不可接管风险的人脸识别技能,包括但不限于:公开场合的“实时”或“后期”的远程识别系统、从互联网或闭路电视录像中无目标地抓取面部图像以创建或扩展面部识别数据库,以及在司法、边防、事情场所和教诲机构等领域中用于推断自然人的感情识别系统等。
我国对人脸识别技能的限定与欧美有奇妙但显著的差异。2015年,国家发改委等九部委联合颁发《关于加强公共安全视频监控培植联网运用事情的多少见地》,指出到2020年基本实现“全域覆盖、全网共享、全时可用、全程可控”的公共安全视频监控培植联网运用。〔19〕在此背景下,《个人信息保护法》第26条将“为掩护公共安全所必需”作为在公共场所安装图像采集、个人身份识别设备的必要条件。不过,考虑到在公共场所彻底禁止基于商业目的的人脸识别技能可能过于僵化,上海市的《公共场所人脸识别分级分类运用规范(搜聚见地稿)》试图从风险规制的角度,将人脸识别技能根据运用处景和运用领域予以分类分级,在一定程度上许可金融、医疗、教诲、建筑、房地产、商业、娱乐等行业以及社区、园区的运用。〔20〕《人脸识别管理规定》第10条一方面将人脸识别技能缩限到“远间隔、无感式辨识特定自然人”,另一方面将利用目的扩展到“掩护国家安全、公共安全或者为紧急情形下保护自然人道命康健和财产安全所必需”,亦是平衡风险和收益的举措。〔21〕可以预见,未来对人脸识别技能的掌握可以采纳严格禁止、行政容许、安全评估等多层次规范模式,以确保人脸识别技能及其监管方法的合理性与合比例性。
(三)基于“社会建构论”的人脸识别技能法律管理
遵照该范式的人脸识别技能管理哀求将受到人脸识别技能影响的各利益干系方,特殊是个体纳入技能设计之中。这一进路并不认可“人脸识别技能及其风险的分外性并施加分外规制”的不雅观点,而主见将肃清社会"大众年夜众与技能之间的信赖危急作为一样平常态度,以期化解个体对个人信息安全、身份验证准确以及对人脸识别技能泛滥的隐患,“透明性”由此成为管理的核心问题之一。〔22〕
2022年,环球隐私大会发布《关于在人脸识别技能中适当利用个人信息的原则和期望的决议》,将“透明性”列入管理原则之一。据此,所有人(特殊是未成年人和弱势群体)有权知悉:(1)其面部图像可能或将被用于人脸识别系统;(2)其面部图像可能或将被纳入人脸识别系统的参考数据库;(3)人脸识别信息的储存办法和地点、信息的处理目的、信息的保留韶光;(4)可能与哪些实体共享信息。为此,人脸识别设备应该设置能干的标识,清楚地标明正在利用人脸识别,而不是一个标准的安全摄像头,并在合理环境下关照被处理的所有个人。〔23〕
在宏不雅观层面,“社会建构论”的人脸识别技能法律管理倡导一种多利益干系方的共同管理。为实现此目标,天下经济论坛在法国率先培植了人脸识别技能的多利益干系方社区,汇聚了设计、研发、采购人脸识别技能的公司、商业机构、政府部门、学者和民间社会代表,通过共同研究和论辩确定负任务利用人脸识别的定义和原则;其次,从“经由设计的卖力”原则开拓一套最佳实践,以支持上述原则;进而,借助评估问卷,由各方评估实在行是否符合哀求;末了,再由授信第三方审核实践中的组织和操作,以验证原则的遵守情形。〔24〕这一程序性的管理机制并不预设任何群体、任何主见的优先性,而是借由搭建利益干系方之间可持续的互助关系,使其在科技的道路上谨严地权衡取舍,为真正以人类福祉为本的科技奠定根本。
三、范式改造:人脸识别技能系统的法律管理
科技工具论、科技本色论和社会建构论分别关注了“人—技能—社会”三个成分。但究其本色,科技是自然属性和社会属性的统一体,无法将科技从其所束缚的社会构造之网中移除;另一方面,离开人类能动性和科技事理及其历史脉络,任何科技创新也如无源之水。实际上,科技实践和管理远比单一不雅观点的表述要繁芜和奇妙,只有综合“人—技能—社会”的三维视角,才能得到对科技的整全性管理。在此,将这一新的范式称之为“科技系统论”。
(一)迈向“科技系统论”的法律管理
科技系统论旨在冲破经典范式对“人—技能—社会”的割裂,如其倡导者托马斯·休斯所言:对付科技系统和网络培植时期的发明者、工程师和管理者来说,技能与科学、科技与社会、纯粹研究与运用研究、科技内部人与科技外部人都是一些陌生的二分法。相反,技能、专业人士、各种组织都是科技系统中的互动实体,发挥着独立浸染,从而共同构成了“无缝之网(Seamless Web)”〔25〕。循此,我们要区分两种不同的观点:一个是技能(Technical),包括物理人工物(如发电机、变压器、电灯和输电线路等)和软件(如专业知识);一个是科技(Technology),即涵盖了物理人工物、软件、组织、法律人造物和自然资源的“技能—社会系统(Socio-technical System)”〔26〕。自工业时期的能源、通信、交通等技能兴起以来,后一种“科技”(即“技能—社会系统”)已经成为当代科技的基本图式。随着数字时期的来临,新兴科技亦取代工业技能,化身当代大型技能系统(Large Technological System)〔27〕的最佳代表,成为集企业、政府机构、社会群体、消费者组织、标准化实体、监管职员、在线系统、算法等多种异质要素于一身的繁芜系统。
“对称原则”和“互动原则”是科技系统论的基本原则。所谓“对称原则”,即在阐发科技系统时应平等对待“技能的社会决定”和“社会的技能建构”,平等对待“人类行动者”和“非人行动者”,平等对待“技能的天下”和“非技能的天下”。所谓“互动原则”,即上述两两对立的要素不但可变且相互影响,因此可以在“共同的、有时的、场景的目标与利益”下,动态调试、自由连接并天生网络。故而,若系统的一个组件被移除或性子发生改变,其他组件也将相应发生改变。由于所有要素均为变动且可反转的分缘际会,科技系统就不再是被“决定的”,而是在经济、政治、文化和物理的永恒流动中,展现出的生态秩序“转译进程(Translation Process)”〔28〕。
职是之故,新兴科技的法律管理不但应平等考量“技能”和“法律”,还应着眼于全体科技系统,而非立足技能或法律单一组件。在此,我们不妨将之称为管理的“共同优化原则”(Principle of Joint Optimization)。须知,系统内特定维度上臻于完善,系统整体未必达致最优。事实上,系统最优每每以每个独立维度的状态都低于最佳状态为代价。作为彼此独立的要素,技能和法律遵照着迥然不同的逻辑,但基于互动原则,如果两者难以契合,就会导致不平衡,从而危及系统整体目标的实现,乃至使之成为不可能。故此,在优化新兴科技管理时,法律/技能的“输入”应转译为技能/法律的“输出”,从而实现共同优化的异质耦合。〔29〕因而,新兴科技的法律管理一方面要尊重技能规律,考试测验从技能内在视角不雅观察法律并优化技能,由此形成以自然规律为根本的技能标准法律化和法律规范标准化;另一方面要以科技系统内各种“人类行动者”,尤其是“系统建立者”为工具,通过法律权利、责任、任务的设定促进各方开展利益折衷和重构科技系统。为此,法律应从命令服从机制转向勉励相容机制,调动被监管者的遵法诱因,以推动内生管理和外部规制的有效互助。〔30〕
(二)科技系统论下的管理迭代和人脸识别技能管理的改造
与科技工具论、科技本色论、社会建构论比较,科技系统论的法律管理在管理主体上既包括科技自身,更指向了人类行动者,但又不会将所有利益干系方全部纳入,避免了管理主体过于泛化的毛病。其次,在管理法律的性子上,科技系统论的法律管理紧张表现为“勉励法”,即将法律视为一种勉励个体改变自身行为的工具,其浸染发挥必须以管理主体在法律阴影下自身效用最大化为条件,在此意义上,法律不仅是逼迫性原则,更是可实行、可预期的勾引性规则。末了,在管理阶段上,科技系统论的法律管理是领悟事前(研发)、事中(运用)、事后(任务)的全链路管理。须要解释的是,从经典范式到科技系统论的迭代,并不虞味后者对经典范式的取代,毋宁是一种能级跃迁,确保后者可以向下兼容科技工具论、科技本色论、社会建构论,进而形成“人—技能—社会”整全性管理。
基于上述事理,科技系统论视野下的人脸识别技能管理,一方面涵盖了基于个人信息保护的管理(科技工具论)、基于技能风险的管理(科技本色论)以及基于透明性的管理(社会建构论);另一方面它超越了经典范式,在科技系统的建构和解构的双向运作中,抽离出人脸识别的行动者、场景、算法、数据等系统组件,凭借共同优化原则,实现法律和技能的同频共振。事实上,《人脸识别管理规定》正好建立在这一范式之上。该规定第1条开宗明义地将立法依据扩展到《网络安全法》《数据安全法》《个人信息保护法》〔31〕,充分解释其不再是根据《个人信息保护法》第62条“针对人脸识别制订专门的个人信息保护规则、标准”授权而制订的下位法,而是从宏不雅观维度对人脸识别技能的系统性规范、干系条款的展开,更光鲜地表示了不同参与者、多种场景和细化技能标准相呼应的系统论方法。
(三)基于“科技系统论”的人脸识别技能法律管理
从科技系统论出发,首先要辨明人脸识别技能系统的人类行动者。基于对技能系统生态的不雅观察,干系主体可类型化为:(1)技能供应者,即供应包含视频人脸识别、图片人脸识别和数据库比拟考验等技能的供应方;(2)产品/做事供应者,即根据详细运用处景的须要,供应离线SDK、在线API、人脸识别一体机等软件做事、软硬件一体终端以及运行掩护做事的供应者;(3)产品/做事利用者,即将人脸识别技能实际运用于聪慧安防、聪慧金融、手机娱乐、出行交通等多个场景中的利用方;(4)平台管理者,即供应产品/做事供应者或利用者的接入或向其运营供应技能资源和信息网络渠道,以及供应市场和用户触达中介做事的操作系统、运用程序分发平台、大型平台型APP。基于共同优化原则,人脸识别技能法律管理应广泛吸纳《远程人脸识别系统技能哀求》《人脸识别数据安全哀求》《公共安全重点区域视频图像信息采集规范》《公共安全人脸识别运用图像技能哀求》《移动智能终端人脸识别安全技能哀求及测试评估方法》《人脸识别支付场景个人信息保护安全哀求(搜聚见地稿)》等技能标准,令抽象的法律规范和充满细节的技能哀求彼此协作,从而为干系主体设定即时回应且可操作的行为指引。
1.技能供应者的管理
技能供应者是人脸识别技能运用的源头活水,其管理自然构成技能管理的重中之重。详言之,技能供应者的管理又可分为数据安全管理和算法可信管理。人脸识别技能以数据为驱动力。范例的人脸识别系统由“演习”和“识别”两部分组成,前者包括人脸数据库、人脸检测与定位、人脸图像预处理、特色提取与选择、演习;后者包括人脸信息采集、图像像素数据化、数据库比对识别。据此,技能供应者在数据演习、存储、传输、删除均负有担保技能研发可靠、安全的责任。
在数据演习环节,技能供应者应特殊关注以下方面:(1)技能设计选择;(2)数据采集;(3)数据准备处理操作(注释、标记、洗濯、充足和汇总);(4)数据应衡量和代表的信息假设;(5)事先评估所需数据库的可用性、数量和适用性;(6)可能存在偏见的检讨;(7)确定任何可能的数据空缺或不敷以及如何办理这些空缺和不敷。技能供应者应该确保演习、验证和测试数据库具有代表性、完全且没有缺点。同时,数据应具有适当的统计属性,特殊是与拟识别人群有关的属性。在存储环节,技能供应者应采纳加密或去标识化的安全技能方法,包括但不限于天生不可逆、可更新的人脸特色后再存储,以及特色提取算法、密码学技能、假名标识符等技能。同时,存储环境应供应分类管理的机制,担保人脸识别信息与身份信息分开存储,建议采取人脸信息与身份信息设置不同访问权限的掌握、隔离的物理机房或独立数据系统中存储、两套数据有解耦等隔离手段。在传输环节,技能供应者应确保传输环境安全,建立安全的人脸信息传输通道,在传输或接管传输前,对通信双方的真实身份进行鉴别和认证,并采取防火墙、事前检测等安全技能或设备。在删除环节中,技能供应者应确保及时删除人脸信息,利用慢速格式化、Secure-Delete指令等可行方法,使系统具备删除后防止规复的能力。
人脸识别技能内含高风险算法,技能供应者应该在研发伊始,就将算法可信理念植入需求剖析和系统详细设计等方案设计中,从而使后续的研发测试和运营始终符合算法可信哀求。一方面,技能供应者须承担算法准确性、鲁棒性、安全性的责任。为此,其可以通过备份、故障安全操持等技能冗余的办理方案,利用在技能投入利用后仍会持续学习和反馈循环的开拓办法。同时,对付未经授权的第三方通过系统漏洞变动利用或性能的考试测验,人脸识别系统应具有复原性,足以化解所处环境的可能故障,特殊是因其与操作职员或其他系统的相互浸染所引发的缺点。末了,技能供应者还要采纳对抗演习,以预防操纵演习数据集的攻击方法,戒备导致模型出错的输入或模型毛病。另一方面,技能供应者还应积极履行算法安全评估与审计,定期审核、评估、验证人脸识别算法的机制机理,全面审计人脸识别技能的模型演习和模型评估等实现流程,提升系统可追溯能力。个中,模型演习是为算法系统赋有“智能”的关键,对硬件平台、软件框架、算法选择、调参过程等环节的全面审计,能有效确保技能的源头可信性。模型评估反响算法系统在实际运用中的性能表现和泛化能力,标准严谨的评估过程能衡量模型质量,并判断其是否能知足设计哀求,帮助创造系统实现过程中的问题并不断改进。因而,详细审计模型在验证集、测试集上的指标表现和变革对算法可信管理而言不可或缺。末了,在必要时可以通过算法备案,以增强上述算法安全评估和审计的透明度。〔32〕
2.人脸识别产品/做事供应者的管理
人脸识别产品/做事供应者是人脸识别系统生态的中间力量,其上连接技能供应者,下启人脸识别做事利用者,发挥着承上启下的枢纽浸染。据此,人脸识别产品/做事供应者答允担如下责任。(1)质量管理责任。产品/做事供应者应全面建立质量掌握和质量担保的组织和程序、严重事件和故障的应急程序,以及支持监管机构监督和司法系统等。对付列入网络关键设备和网络安全专用产品目录的图像采集设备、个人身份识别设备,还应按照国家标准的逼迫性哀求,由具备资格的机构认证合格或者检测符合哀求后,方可供应。(2)人工监督责任。为降落风险,产品/做事供应者应采取适当的人机界面临象,使其在运行过程中可以由人参与和监督。为此,人脸识别系统应具备人脸识别信息访问掌握功能,确保信息复制与下载等主要操作由特定职员在实行、操作过程中验证身份、及时收回实行职员操作权限。同时,卖力监督的职员须充分理解人脸识别的功能和局限性,有能力创造并办理功能非常和意外性能的故障;并能意识到过度依赖人脸识别技能产生的“自动化偏差”以及其他风险,可以采纳快速接管或通过“一键关停”的办法终止做事。(3)算法日志记录责任。产品/做事供应者应该确保人脸识别技能具有系统运行时自动记录事宜(日志)功能,包括记录系统每次利用的韶光、针对其检讨输入数据的参考数据库、搜索导致匹配的输入数据以及干系自然人的身份。(4)起草技能文件责任。产品/做事供应者应该体例技能文件,并向监管机构供应,以评估其合规性。(5)保密责任。产品/做事供应者对获取的个人图像、身份识别信息负有保密责任,不得造孽透露或者对外供应。
3.人脸识别产品/做事利用者的管理
作为面向公众供应的主体,利用者是人脸识别技能的终端,承担终极任务。为此,利用者首先负有个人信息保护责任。在网络人脸信息时,应以供应单独弹窗、单独提示等办法进行奉告,供人脸信息处理者用于奉告网络人脸信息事宜以及处理人脸信息保护政策;应具备便于查看人脸信息保护政策的功能;应具备用户撤回赞许、单独赞许或谢绝的功能,并且在用户单独赞许后才进行网络;应能够针对意外网络的非注册用户人脸信息进行及时删除或匿名化处理。在存储人脸信息时,应确保能够到期自动删除;应确保人脸信息主体行使个人信息权利能够及时相应。〔33〕此外,对“影响个人自主决定权”“引发差别性报酬”“个人名誉受损或遭受精神压力”“个人财产受损”等权柄影响及安全风险,以及所采纳的保护方法是否合法、有效并与风险程度相适应等方面应开展个人信息影响评估。其次,利用者负有算法阐明责任。在“产品/做事利用者”和“产品/做事供应者”二分架构下,利用者是人脸识别算法阐明的紧张主体。〔34〕基于此,个人有权要求利用者在合理范围内,展示输入人脸信息,并哀求解释相应人脸识别信息对决策结果产生何种影响。此外,利用者还应针对模型、数据和结果保留明确记录,从而在变动对应成分后,使算法输出特定决策,以备监管部门、第三方机构或法院的核查,终极判断算法是否导致歧视性或其他不当后果。末了,利用者还应该履行相应的备案责任。根据《人脸识别管理规定》第16条规定,在公共场所利用人脸识别技能,或者存储超过1万个人脸信息的人脸识别技能利用者,应该在30个事情日内向网信部门备案,并将人脸识别技能利用者及其个人信息保护卖力人的基本情形,处理人脸信息的必要性解释,人脸信息的处理目的,处理办法和安全保护方法,人脸信息的处理规则和操作规程,个人信息保护影响评估报告等信息供应给监管机构。〔35〕
4.平台管理者的管理
鉴于平台管理者实际掌握了技能环境和运营环境,对人脸识别做事的技能设置和条款条件具有决定性浸染,其应特殊承担“守门人”责任。为此,平台管理者首先应制订符合国家法律法规等规定哀求的准入规范,不得为不达标的人脸识别产品/做事供应者或利用者利用其所管控的通道、空间和其所供应的做事。其次,应采纳必要的技能手段,对利用其所管控的通道、空间和利用其所供应的技能做事的第三方人脸识别行为进行监管,必要时提出警告和整改见地。末了,还应建立干系的投诉受理和处置机制,合营监管机构对违反法律法规的第三方App进行调查处理。〔36〕
四、结语
40年前,托马斯·休斯曾提出一个饶有意见意义的问题:为什么20世纪初的电力系统在不同的韶光、不同的地区和国家有不同的特性?例如,柏林拥有大约六个大型发电厂,而伦敦则有50多个小型发电厂,引人瞩目的差异不但是数量,更主要的是电力产生、传输和分配的办法。〔37〕实在,正是这些不同的“技能风格”才充分表明:从没有整洁划一的科技空想图式,科技始终在“技能—社会—人”的繁芜互动中悄然成型。因此,面对新型科技对人类的寻衅,我们必须超越经典的“科技决定论”“科技本色论”和“社会建构论”,迈向科技系统的法律综合管理,经由“技能—社会—人”的同频共振,终极实现科技善治。
〔参考文献〕
〔1〕郭春镇:《数字人权时期人脸识别技能运用的管理》,《当代法学》2020年第4期。
〔2〕〔美〕安德鲁·芬伯格:《技能批驳理论》,韩连庆、曹不雅观法译,北京:北京大学出版社,2005年,第4页。
〔3〕Huei-ju Tsai,“Media Neutrality in the Digital Era:A Study of the Peer-to-Peer File Sharing Issues,”Chicago-Kent Journal of Intellectual Property,vol.5,no.1(2005),p.53.
〔4〕Jessica Litman,“The Sony Paradox,”Case Western Reverse Law Review,vol.55,no.4(2005),p.917,951.
〔5〕王乐兵:《自动驾驶汽车的毛病及其产品任务》,《清华法学》2020年第2期。
〔6〕张凌寒:《算法规制的迭代与改造》,《法学论坛》2019年第2期。
〔7〕郑志峰:《自动驾驶汽车的交通事件侵权任务》,《法学》2018年第4期。
〔8〕赖晓黎:《资通科技的工具面向——从科技决定论谈起》,《资讯社会研究》2012年第23卷。
〔9〕〔美〕布莱恩·阿瑟:《技能的实质:技能是什么,它是如何进化的》,曹东溟、王健译,杭州:浙江公民出版社,2014年,第184页。
〔10〕郑玉双:《破解技能中立难题——法律与科技之关系的法理学再思》,《华东政法大学学报》2018年第1期。
〔11〕European Parliament,Resolution of 16 February 2017 with Recommendations to the Commission on Civil Law Rules on Robotics,2017-02-17,https://www.europarl.europa.eu/doceo/document/TA-8-2017-0051_EN.htm,2023-08-26.
〔12〕彭诚信、陈吉栋:《论人工智能体法律人格的考量要素》,《当代法学》2019年第2期。
〔13〕邢怀滨:《社会建构论的技能界定与政策含义》,《科学技能与辩证法》2004年第4期。
〔14〕李三虎:《技能决定还是社会决定:冲突和同等——走向一种马克思主义的技能社会理论》,《探求》2003年第1期。
〔15〕鲁楠:《信息社会政府论:蜕变与选择》,《国家审查官学院学报》2023年第2期。
〔16〕褚霞:《“人脸识别”400+行政惩罚案例剖析解读》,2021年8月18日,https://mp.weixin.qq.com/s/of6qi0zPLJY9WMai UaBzWw,2023年8月26日。
〔17〕〔18〕〔21〕〔31〕〔35〕《人脸识别技能运用安全管理规定(试行)(搜聚见地稿)》,2023年8月8日,http://www.cac.gov.cn/2023-08/08/c_1693064670537413.htm,2023年8月20日。
〔19〕《关于加强公共安全视频监控培植联网运用事情的多少见地》,2015年5月6日,https://gat.ln.gov.cn/gat/jffw_141458/gatjzfz/lnsgatjsffbgs/zcfg/FE3E27 9AFDD84AAFA356F8AB0F77CC62/index.shtml,2023年5月29日。
〔20〕《公共场所人脸识别分级分类运用规范(搜聚见地稿)》,2023年4月25日,https://it.sohu.com/a/670042661_120004308,2023年5月29日。
〔22〕赵精武:《刷脸问题管理逻辑的一样平常规则转向——以技能透明度为基本态度》,《北方法学》2022年第1期。
〔23〕44th Closed Session of the Global Privacy Assembly,Resolution on Principles and Expectations for the Appropriate Use of Personal Information in Facial Recognition Technology,https://globalprivacyassembly.org/wp-content/uploads/2022/11/15.1.c.Resolution-on-Principles-and-Expectations-for-the-Appropriate-Use-of-Personal-Information-in-Facial-Recognition-Technolog.pdf,2023-08-26.
〔24〕World Economic Forum,A Policy Framework for Responsible Limits on Facial Recognition Use Case:Law Enforcement Investigations,2021-11-03,https://cn.weforum.org/whitepapers/a-policy-framework-for-responsible-limits-on-facial-recognition-use-case-law-enforcement-investigations,2023-08-26.
〔25〕Thomas P. Hughes,“The Seamless Web: Technology,Science,Etcetera,Etcetera,”Social Studies of Science,vol.16,no.2(1986),pp.281-292.
〔26〕杨海红、邱惠丽、李正风:《托马斯·休斯“技能—社会系统”思想探微》,《自然辩证法研究》2020年第8期。
〔27〕〔37〕Thomas P. Hughes,The Social Construction of Technological Systems:New Directions in the Sociology and History of Technology,Massachusetts:The MIT Press,1987,pp.51-82,51-82.
〔28〕Tim J. Newton,“Creating the New Ecological Order? Elias and Actor-network Theory,”Academy of Management Review,vol. 27,no. 4(2002),pp. 523-540.
〔29〕Roba Abbas,Jeremy Pitt,Katina Michael,“Socio-Technical Design for Public Interest Technology,”IEEE Tran‐sactions on Technology and Society,vol.2,no.2(2021),pp.55-61.
〔30〕周汉华:《探索勉励相容的个人数据管理之道——中国个人信息保护法的立法方向》,《法学研究》2018年第2期。
〔32〕容许、刘畅:《论算法备案制度》,《人工智能》2022年第1期。
〔33〕中国信息通信研究院云打算与大数据研究所:《人脸信息处理合规操作指南》,2022年1月27日,https://mp.weixin.qq.com/s/NBX_kqxlT3scQlehHEvt2A,2023年5月26日。
〔34〕容许、朱悦:《算法阐明权:科技与法律的双重视角》,《苏州大学学报(哲学社会科学版)》2020年第2期。
〔36〕张新宝:《互联网生态“守门人”个人信息保护特殊责任设置研究》,《比较法研究》2021年第3期。
【任务编辑:简 绛】
Sony Corp. of America,Inc. v. Universal City Studios,Inc.,464 U.S.(1984). ↑北京市第二中级公民法院(2009)二中民初字第17910号民事讯断书。 ↑KamR Stockholm-Case No.5888-20,https://gdprhub.eu/index.php?title=KamR_Stockholm_-_Case_No._5888-20,2023-10-15. ↑浙江省杭州市富阳区公民法院(2019)浙01民初6971号民事讯断书。 ↑