刘文杰 | 何以透明,以何透明:人工智能法透明度规则之构建
作者:刘文杰(中国政法大学比较法学研究院教授,法学博士)
出处:《比较法研究》2024年第2期
目次
一、透明度规则的构建路径
二、基于人工智能系统使用者信息需求的透明度义务
三、基于人工智能系统交互相对人信息需求的透明度义务
四、基于自动化决定相对人信息需求的透明度义务
五、结语
摘要:透明度作为人工智能风险治理的一项基本要求,其现实基础在于人工智能应用引发的信息不对称以及这种不对称所蕴含的对个体受保护利益或社会秩序的侵害风险。当下,信息不对称主要存在于人工智能系统分别作为产品、交互性媒介及自动化决定系统而影响现实世界等三类场景之中。相应地,透明度规则的主体内容应为人工智能系统提供者、运营者为满足相对人透明度需求而负有的信息披露义务。考虑到技术保密性对于产业发展的关键作用,且对外披露亦不是增加系统安全性的有效方式,对人工智能技术应以不强制披露为原则。诸项透明度规则既可归于“人工智能风险治理”主题之下,同时又分别属于个人信息保护法、消费者权益保护法、产品质量法、合同法、程序法乃至网络安全法规则,彰显出人工智能法的领域法特征。关键词:透明度;可解释性;生成式人工智能;自动化决定;算法黑箱 在享受人工智能技术带来的种种便利的同时,人类社会也真切地感受到其中所蕴含的风险。对于人类而言,“现在正是一个应当采取行动的独特时刻,回应人工智能安全发展的需求”,尤其是“识别共同关注的人工智能安全风险”,并“制定具体的基于风险的政策,以确保安全”。无疑,人工智能风险呼唤着有力的治理举措,同时不应忘记,治理本身也并非毫无风险。为人工智能应用设定宽泛含糊的安全目标,可能导致经营主体无所适从,反而走向无所顾忌。禁令细密广布,监管化身为随时可能落下的达摩克利斯之剑,又可能造成创新举步维艰,产业日渐凋敝。毕竟,创新与应用相辅相成,失去广阔的应用空间,技术创新亦难以为继。 相较而言,透明度要求作为一种治理思路具有明显的优势,其不是直接干预经营主体的行为,而是要求厂商以适当的透明度换取产品投放市场的许可,从而兼顾到经营者利益、技术创新以及公众安全。基于这一优点,在已经推出的全球各类人工智能治理方案中,透明度(transparency)都是一项核心要求。已获得欧洲议会一读通过的欧盟《人工智能法》(Artificial Intelligence Act)即将透明度作为开发和使用人工智能系统应当遵守的七项原则之一。制订人工智能法在我国已提上议事日程,参考国际做法,未来的中国人工智能法也应对透明度规则作出规定。不过,透明度方针若是仅仅停留在原则性宣示层面,不能形成对主体的清晰行为指引,其实践意义将会十分有限,有时甚至可能起到消极作用。而将希望完全寄托于监管部门的权威,让经营主体疲于填写形形色色的表格,应付大大小小的检查,又容易使人工智能风险治理蜕变为一种形式主义的表演,于现实无所助益。从立法角度讲,将透明度要求具体化为行为规范,以满足利害关系人的透明度需求为导向确立提供人工智能一方的信息披露义务,更能保障市场主体的稳定预期,确保人工智能造福人类,同时避免抑制创新的消极效果。本文即就人工智能法透明度规则构建问题展开探讨。
01
透明度规则的构建路径 在人工智能的开发与应用中信息不对称现象非常突出,即一些利害关系方掌握信息,而另一些利害相关方对信息一无所知,这导致后者的合法权益易于受到损害。透明度规则的构建有赖于恰当概括人工智能风险以及准确归纳人工智能开发与应用中的信息不对称情形。 (一)透明度规则构建的认识论基础:抽象风险与具体风险的区分 顾名思义,透明度要求的作用机制是通过提升人们对人工智能的认知,使之获得监督和防范人工智能风险的能力。在各类治理方案中,为人工智能设置透明度要求的目的被明确表述为配合其他治理要求,有效防范人工智能风险,保护人类及其家园。例如,欧盟《人工智能法》指出,在为全人类带来福音的同时,人工智能在具体应用中“可能会产生风险”,对受保护的公共利益和基本权利造成伤害,包括物质性或非物质性的身体、心理、社会或经济损害等。对人工智能系统提出透明度等项要求,是为了“加强现有权利保护和救济措施的有效性”。对所谓“高风险人工智能系统”提出透明度、人工监督、稳健性、准确性和网络安全等要求,更是“有效降低健康、安全和基本权利的受侵害风险所必需”。 就社会公众对人工智能的认知缺乏而言,需要区分为宏观和微观两个层次加以观察。一般公众不了解人工智能的算法模型或其底层原理,乃至对表现人工智能的计算机语言也茫然无知,属于宏观层面的因社会分工而导致的认知缺乏。在这一层面谈论人工智能透明度提升,实际上是谈论如何加强公众的人工智能素养,使其像学习数学、物理、生物学那样,掌握人工智能的原理、技术,从而消除对人工智能的恐慌和抵触。加深普通社会成员对人工智能的认识,其意义不言而喻,但做到这一点,更多要依靠国家层面的教育投入和社会成员的自我努力。对于具体从事人工智能系统开发运营的经营者而言,普及人工智能知识具有公益属性,并非其应当承担的义务。微观层面的透明度问题则表现为提供特定人工智能系统一方与受到系统运行影响者之间信息鸿沟的消解。让受影响者获得对系统的了解,在一定程度上弥合信息鸿沟,涉及到具体系统提供方的披露义务,于此凸显出构建透明度规则之必要。 提升透明度旨在防控风险,透明度规则之构建亦需要区分两种风险:整体观察视角下的人工智能风险和个别观察视角下具体人工智能系统的风险。前者是一种抽象风险,后者为具体风险。抽象地谈论人工智能风险并非没有意义,可以从中引出国家层面加强人工智能知识普及、加大人工智能教育投入的职责,另一方面,对风险的考察仅仅停留在抽象层面,将一切人工智能应用所含风险等同视之,难以为具体规则的构建提供调整对象,或者导致对一切人工智能风险从高评判,造成法律调整的削足适履。若要做到对症下药,透明度规则需要对接的是“与特定的人工智能系统的不透明与复杂性有关的关切”,着眼于具体风险。 无疑,人工智能存在风险,可因失控而造成损害。事实上,随着计算机时代的到来,人类便不可逆地生活在计算机病毒入侵、控制系统失灵的风险之中。有些风险已然造成大规模损害。然而,对计算机软件的使用不是越来越少,而是越来越多,且向着更加智能化的方向迈进。出现这种情况,原因在于人类社会发展并不拒绝风险,而是寻求风险性事业的社会收益远远超过其可能造成的损害。透明度并非那些“不可接受的风险”的通行证,却是“可接受的风险”所以被接受的前提条件。 (二)透明度规则的应然特征 由上文可知,设置透明度规则,应当主要服务于人工智能应用领域具体风险(特定人工智能系统致损风险)的适当消除,藉以将相对人受保护水平维持在人工智能进入人类生活之前的水平之上。由此可以得出透明度规则的第一项特征,即规则的主要内容应为人工智能提供者、运营者的信息披露义务。为社会带来人工智能应用的提供者、运营者的首要义务是保障特定系统的运行安全,不给他人权益及公共秩序造成伤害。由掌握系统运行信息的提供者、运营者承担披露义务,可谓顺理成章。而且,相比于第三方如国家或社会机构的介入调查,由提供者、运营者自行披露,不但成本更小,对市场产生的干扰也更小,符合效率原则。 透明度义务主要是向受人工智能影响者披露的义务,此为透明度规则的第二项应然特征。所谓透明度,可以概括为通过信息披露实现人工智能系统的可理解性或者说可解释性。这里的可理解性不能泛泛而言,而是与主体相结合方有意义,即实现“人工智能对何人的可理解性”。最需要理解人工智能系统的,是受到系统运行影响的人,所谓人工智能的可理解性,因此主要是指特定系统运行对于受影响者的可理解性。是否尽到透明度义务,判断标准也是看对于受影响者而言,信息披露是否容易理解,易于接收。在内容上,透明度义务亦非漫无边际的披露,而是以满足受影响者的正当信息需求为尺度。在法律实施效果上,让就特定事项有切身利益者拥有提出某种法律主张的资格,亦为更有效率的制度设计。 人工智能领域的透明度监管应主要表现为对义务人是否切实履行所负信息披露义务的监督和处置,此为透明度规则的第三项应然特征。通常而言,监管部门不是透明度义务的履行相对人。监管部门几乎不可能知道,在难以计数的人工智能具体应用场景中,何种信息应当披露,因而也无从判断披露给其的信息是否必要和充分,甚至在判断信息是否真实方面亦力有不逮。由于监管部门并非人工智能应用的直接利害关系人,一定程度上也缺乏深究透明度义务切实履行与否的动力。一项法律义务如果没有明确的履行对象,其内容往往无法具体化而流于空泛,导致规则构建的目的落空。法律越是要求一切信息披露流向监管部门,监管越容易流于形式。结果可能是人工智能透明度治理异化为要求义务人填写名目繁多的(电子)表格,无人真正关心透明度要求是否落到实处。有研究者指出,更多的填表、打勾打叉的形式审查有可能仅仅带来缺乏实质意义的、官僚主义式的矫枉过正,结果是创造出一种“毫无意义的透明”范式,与早已广为人知的“毫无意义的同意”相匹配。 另一方面,明确透明度义务主要向受影响者履行,不是否定监管的作用,更非要取消监管,而是强调恰如其分的监管。行政监管的必要性首先出现在依靠民事救济手段无法有效维护当事人权益的情形,尤其是受侵害个体出于维权成本过巨的考虑而缺乏维权动力时,行政监管的介入意味着抬高违法成本,对行为人构成实质性威慑。其次,当行为对不特定人的人身、财产或公共环境存在显著伤害危险,同样在一定程度上需要来自代表公共利益部门的监管。例如,人工智能驱动的大众传播场景下,受众为松散的多数人,单个人主张信息披露的动力不足,容易发生义务人逃避披露义务的情况。此类情况下,义务人亦可能负有向监管部门主动报告透明度的义务(详见下文)。 (三)人工智能应用引起的信息不对称 作为政策工具箱中的利器,透明度要求的提出以人工智能系统不透明现象的存在为前提,且这一不透明构成了对健康、安全和基本权利等受保护利益的现实威胁。虽然人工智能具体应用场景不可计数,但基于功能属性的类型划分并非没有可能。首先,需要将能够作出影响他人权益之决定的人工智能与单纯满足用户精神物质需求的人工智能区分开来,对前者进行评价是看所作决定正当与否,对后者则是看质量合格与否;其次,对满足公众物质文化需求的人工智能,还需要区分作用于物理世界的人工智能(如自动驾驶系统、环境监测系统等)和作用于人的精神世界的人工智能,那些主要发挥媒介(media)功能的人工智能需要法律上的单独对待。基于以上分析,本文归纳出当下人工智能应用中信息不对称的三类主要情形,并在后文围绕此三类情形探究透明度规则之内容。 1.人工智能系统提供者与使用者之间的信息不对称 到目前为止,具备自我意识的“觉醒了”的机器人尚未出现,人工智能仍然只是人类完成各类工作的助手和工具。一个人工智能系统首先是一件产品,或者说,只有当开发者将一个人工智能系统投放市场或为此目的而开展研发,讨论人工智能规制问题才有意义。技术意义的人工智能具有软件系统、自动化运行以及依托硬件的特征,在市场层面,则可将人工智能理解为软件产品。人工智能系统进入应用环节的第一步是从提供者手中转移至使用者,供其支配和操作,如工厂车间内的智能监控系统、手机上安装的指纹识别系统等。使用者因而成为就人工智能系统应用有利害关系的第一类主体。 人工智能系统提供者与使用者之间天然存在信息不对称。人工智能系统作为产品而流转,表现为一方将软件交给另一方支配和使用,这既包括将软件安装在使用方的硬件设备上,也包括给予使用方在线调用权限,使得系统能够接受用户的指令而完成交办的任务。然而,单纯移转系统控制权,并不能让使用者掌握系统的功能、操作方法甚至启动模式。没有提供者告知有关信息,使用者对手中的系统徒有控制之名,而难有利用之实。 2.人工智能系统运营者与交互相对人之间的信息不对称 作为“智能”产品,人工智能系统可以拥有强大的内容自生成能力,实现与人类的交互。然而这种交互也带来了不容回避的信息不对称问题:人工智能生成的内容虽为虚构,在与系统进行交互的相对人看来却是真实。人工智能合成人像可以做到栩栩如生,与真人照片无异,但世上并无此人。例如,西班牙的人工智能模特艾塔娜在视频中令人难分真伪,拥有众多粉丝,设计师团队甚至会“安排”她在马德里“度假”。此类“拟真人”出现在信息发布、新闻播报场合,甚至被虚拟投放于新闻现场扮演一线记者角色,都不再是科幻小说中的想象。 当人工智能强大的内容生成能力与互联网深度融合,即有显著影响社会舆论生态的可能。近年来,网络传播生态正在从完全由人主导变为“人机共生”状态。社交机器人作为算法驱动的智能代理正广泛参与到公民对话中。与此同时,通过传播虚假信息、营造虚假意见氛围、制造事实上并不存在的共识,人工智能干扰政治和社会生态已非空想的危险。2016年的美国大选不仅是一场社交媒体深度影响选情的政治事件,也让人工智能显露锋芒。有研究发现,2016年9月16日至10月21日期间,推特(Twitter)上大约有40万机器人参与总统选举的政治讨论,产生了约380万条推文,占此类言论总量的19%。在英国“脱欧”运动中,研究者发现了一组由13493个社交机器人组成的网络在最终投票前鼓吹脱欧。人工智能在大众传播领域制造信息假象已经成为全球性问题。 3.使用人工智能系统进行自动化决定者与相对人之间的信息不对称 自动化的个人信息处理在20世纪已经出现,由此导致了现代个人信息保护制度的确立和不断完善。人工智能系统处理个人信息同样属于自动化处理,又在相当程度上超越了传统的信息收集、清洗、归类,到达了更高水平的评估画像乃至自动化决定阶段。民事生活领域中的大量决定不再由人工作出,而是托付给机器。一个网络买家通过平台向卖家发出退货退款请求,无需人工介入,系统自动计算即可完成退款流程,而上门取件的快递员也是由机器指派的。尤其值得注意的是,人工智能还越来越多地介入司法、行政执法和社会福利分配过程,以帮助公共部门大幅提高办事效率。例如,在商标注册审核领域,可以考虑由经过充分训练的人工智能担任“初审员”,承担涵盖以往作出的所有审核决定的全数据库检索、比对工作,既可提高审核效率,更能在相当程度上克服人工审核标准不一的难题。又如,依靠遍布道路的交通摄像头,从录像中识别交通违章,并作出相应行政处罚决定,多数情况下可以由计算机自动完成,不再需要交管部门的人工判断。 如果说与人工智能系统交互者尚保有相当的主动性,那么自动化决定场景下的相对人基本属于被动方。使用自动化决定者与相对人之间存在着一道信息鸿沟,没有决定一方的披露,相对人通常不了解自动化决定是如何作出的,甚至可能不知道就其切身利益作出裁断的竟然是机器人。在影响了美国纽约市算法审核立法的研究报告《机器偏见》中,研究者举了一则事例,18岁黑人女孩布里莎和女友在路上发现一辆未上锁的儿童自行车和一辆儿童踏板车,便顺手牵羊,随即被警方抓获。两辆童车价值80美元。没有犯罪前科的布里莎被康帕斯系统评估为具有高再犯罪风险,法官要求其交纳1000美元保释金。就在前一年夏天,有犯罪前科的41岁白人男子普瑞特在商店里盗窃价值86美元的工具,康帕斯系统却将其评估为仅有低再犯罪风险。以后的两年里(康帕斯系统设定的再犯罪风险期间),布里莎没有再实施犯罪,普瑞特却因闯入库房盗窃价值几千美金的电子设备被判8年有期徒刑。在裁判者主要依靠人工智能作决定的场合,不知情的相对人可能无形中被剥夺了本应享有的申辩机会。
02
基于人工智能系统使用者信息需求的透明度义务 考察人工智能应用透明度问题,首先面对的是使用者(又可称为用户、部署者)的信息需求。对于“在其支配权(under its authority)之下使用人工智能系统”的人,欧盟《人工智能法》调整范围限于其中的经营性主体,“将人工智能系统用于个人性非职业活动除外”。然而,无论操控人工智能系统的人是经营者还是消费者,就该软件产品的信息需求并无二致,讨论使用者相对于提供者的信息需求,区分使用是出于经营目的还是消费目的并无意义,一台智能汽车无论出售给企业还是个人,汽车厂商都不能在产品的软硬件说明上厚此而薄彼。 (一)人工智能系统提供者的透明度义务 相对于使用者,人工智能系统提供者负有产品说明义务。在移转对此种软件产品的实际控制之外,提供者还有义务向使用者介绍系统运行的特点,使之能够正确和安全地操作系统以完成各种任务,或者如欧盟《人工智能法》所表述的,使得用户能够解释(interpret)系统的输出(output)并予以恰当使用。 为实现人工智能系统的运行,提供者应当向使用者告知系统的用途、性能和操作使用方法。人工智能既能作为操作系统而存在,使机器成为机器人,也能作为安全组件(safety component)实时监测机器设备的运行,及时发出故障预警,在必要情况下启动安全保护程序。无论属于哪种情形,都需要使用者充分了解系统的智能属性,理解系统发出的各类信号的含义,具备判断系统是否正常运行的能力。鉴于人工智能系统的软件属性,除了告知系统的维护与调试方法外,提供者还应当告知是否存在后续的程序升级服务,并于存在此项服务时告知使用者程序升级的方式和条件。 其次,提供者应对使用中的风险加以合理提示,包括常见的不正确使用所导致的风险,并就安全监测的方法与工具以及发生风险时能够采取的补救措施作出说明。作为软件产品,人工智能系统存在代码错误、漏洞等情况并不罕见,系统提供者应将发现漏洞等情况及时通知使用者,并提供补丁等安全工具。当人工智能系统被用于对外提供服务或建立社会交互,系统中的风险便会波及外部。例如,一家企业购入并部署面部识别系统,用于企业出入控制,则系统运行同时涉及企业内、外部人员的个人信息安全。此时,来自系统提供者的风险提示更显必要。 再次,提供者应就系统接受质量及安全检测情况加以说明。此项义务尤其存在于人工智能系统作为机器设备的操作系统或安全控制系统场合。强制性安全标准同样适用于配置有人工智能系统的机器设备,安全性评测亦应将软硬件予以合并考虑,确认人工智能系统能否在设备上表现出正常运行的稳健性。应当指出的是,信息披露的作用机理是用户因获得有关产品的知识而意识到风险的存在和特点,从而主动防范,这在本质上是将一部分风险防范职责转移给用户。考虑到用户的避险能力,并非信息披露越充分,风险就一定越小。生产者事无巨细的披露,包括将那些发生概率极小的风险及其发生机制也告知用户,反而会让用户忽略真正的危险所在。因此,就人工智能系统进行说明及警示,并不导致所有风险一概转由用户承担,也不使得提供者免于出厂前的产品安全检测义务乃至对高风险系统的市场观察义务等。 此外,提供者应当准确说明自己的身份。这一义务服务于人工智能产品可溯源及可追责的目标,对提供者努力提高系统的安全性也能起到督促作用。对于与提供者有合同关系的使用者,获知提供者身份是其就软件产品质量问题主张违约责任的前提。同时,系统也可能(驱动设备)给外部人员及财产造成损害,导致系统提供者承担产品责任,披露身份于此构成受害者追责的前提条件。 现实中,产品使用说明义务通常有人工智能系统提供者与使用者之间的合同作为发生基础,但是,有关产品安全性的说明义务则不应以合同关系的存在为前提。系统提供者能够合理预见到,人工智能产品完全可能流转到合同外的用户手中,这些用户亦对产品使用有正当的安全期待。虽然系统提供者不必甚至可能无权追踪产品的流转,但应当以合理方式在产品上附加安全性警示。换言之,有关安全使用注意事项、风险提示、安全检测及提供者身份等信息之提供应为法定说明义务。 (二)人工智能系统可解释性是否包括技术披露义务 除了有关性能、用途、操作使用说明、安全注意事项等内容,人工智能系统提供者是否还应当向使用者、监管部门或公众完整公开技术细节,包括研发过程中使用的训练数据和以代码形式呈现的算法,甚至像有的观点所主张的对人工智能开发运用的整个过程进行监督,以保证数据“相关、有充分代表性和没有错误”,算法“不存在不合理的安全风险”?对于透明度规则的构建而言,这是一个不能回避的问题。 通常情况下,开发者没有义务对外披露人工智能的研发过程,包括研发中使用的训练数据。这不仅是开发者保有其技术秘密的正当性使然,也是科学技术研究自由的内在要求。某一数据集是否适合于特定人工智能系统的研发,只能交给科技人员来判断。对科技研发进行过程监控,评估科研路线是否妥当,本来也超出了监管者的能力。不需要谁来提醒,研发人员当然会努力选择那些相关和无错误的数据集,充分“考虑人工智能系统拟被应用的特定地理、场景、行为或功能环境(setting)的特征或要素”。然而,科学研究本质上是一个试错的过程,没有失误和失败的科学研究几乎是不存在的,这其中就包括数据选取和标注上的试错。历史上,很多伟大的技术发现都是出于偶然。工程师在开始一次实验之时,并不一定知道会有怎样的实验结果。特定数据集是否真正有助于某一人工智能系统的训练,可能要在投入之后才知道。以所谓上帝视角或事后诸葛亮的目光去审视人工智能研发,要求科技研发从一开始就选对方向且一直行驶在正确的轨道上,相当于以法律去解决科学问题,不可取也不可行。 因此,有关“训练、验证和测试数据集应当相关、有充分代表性以及就预期目的而言最大限度免于错误且完整”的提法即便出现在法律中,也应当属于倡导性规范,原则上不具有拘束力。欧盟《人工智能法》亦认可法律不应干预在投放市场或投入服务之前对人工智能系统或模型的研究开发。还应注意的是,用于机器学习的数据规模可能十分庞大,对外披露成本亦非开发者所能负担。开发者所使用的训练数据除了具有技术秘密的属性,还可能是从第三方协议取得的商业秘密,或经过同意而收集的个人信息、隐私信息,对这些数据加以披露,将会导致研发者违法。基于这些原因,向使用者披露“有关训练、验证和测试数据集的信息”,应当为一般性的类型和特征说明,而不是逐一列举数据。 就风险管控而言,表面上看,公开人工智能算法似乎可以让用户乃至社会公众都参与到技术审核中来,共同找出其中蕴含的风险。其实不然。对于机动车的安全性而言,发动机和刹车装置都是关键部件,但一般用户既不了解发动机技术,也不知道制动装置的结构。即便将一种新药的化学分子式毫无保留地告知给用户,对于提高药品使用安全也不会有多少帮助。考虑到绝大多数用户根本没有时间或能力去学习和理解代码背后的复杂原理,不可能通过把用户培养为人工智能专家来保障安全。让用户从技术角度评判人工智能系统安全性,明显脱离实际。 相反,公开算法可能引发本可避免的风险。在代码层次上公开算法,用户可能因不理解而不关注,黑客却既有兴趣关注也有能力理解。任何软件系统都可能存在或大或小的安全漏洞,算法公开相当于帮助黑客降低发现系统后门的难度,节省其攻击准备时间和成本。在应用层面,公开算法还增加了他人规避算法的风险。研究者发现,当信用评级机构公开算法后,消费者会根据算法公式的标准调整自身行为,得出有利于自己的计算结果,即所谓“与系统博弈”。德国《联邦数据保护法》的立法理由强调,数字画像一方面帮助金融机构有效防控信贷风险,另一方面也可使那些偿付能力不足的人免于过度负债,因此构成了“金融业乃至国民经济的支柱”。如果强制披露算法,就可能被过度负债者所利用,数字画像将无法起到防控金融风险的作用。 所谓社会监督或公众监督,归根到底是托付给专业机构或人员审核,也就是同行监督,与之相伴随的将是不可避免的技术泄露,造成对技术创新的负向激励。技术方案的特点在于,研发过程困难重重,失败几率极大,一旦研发成功则理解和应用起来却极为容易。技术一旦为人所知,即易被广为传播和使用,研发者就其艰辛付出势难获得回报。这一问题在软件领域尤其突出。法律对人工智能算法的专利保护设有严格条件,代码中的技术因素又不在著作权保护范围,代码公开后,他人可通过“不同表达”传递相同思想(技术方案)。即使其算法满足专利保护条件,商业软件开发者也仍然偏好保密方式,目的就在于尽可能防止技术外泄。 经验表明,单纯的技术分析并不一定能够充分揭示产品中的风险,有鉴于此,技术披露从来都不是人身、财产安全保障规则的固有内容。产品说明书主要服务于用户如何掌握产品的使用和避免不当使用的危险,与技术披露是两回事。相比于从内部进行技术审计,从外部进行技术实施效果评估一直是行之有效的安全检验手段。立足于出口控制的性能及安全性检测既可避免侵入企业研发机密,又可很好地保障流入市场的产品具备足够的安全性。 考虑到技术保密性对于产业发展所起的关键作用,且对外披露亦不是增加系统安全性的有效方式,对人工智能技术应以不强制披露为原则。承认算法属于受保护的技术秘密,乃是国际通行做法。美国纽约市曾考虑公共部门使用的算法应公开源代码,然而商业公司以严重损害其竞争优势为由提出强烈反对,最终,立法者在法案中取消了对算法披露的要求。当然,如果某种人工智能技术的实施关乎重大公共利益,且不公开技术无法保障系统运行安全,可例外地要求公开。人工智能技术亦可基于合意而披露或转让。不排除在一些情形下,为更好使用和维护系统起见,提供者在系统用户作出保密承诺的前提下披露一些技术。但就总体而言,在法律层面为人工智能系统开发者、提供者或运营者规定技术披露义务,甚至普遍要求公开源代码,往往弊大于利。
03
基于人工智能系统交互相对人信息需求的透明度义务 如上文所指出的,人工智能系统可以造就一种“真实”外观,使得与之交互者信假为真。不加约束的人工智能传播蕴含干扰舆论、误导公众的重大风险,让相对人了解人工智能传播真面目,以防陷入错误认识,遂显出其迫切性。 (一)披露人工智能“身份”的义务 当人工智能系统和人类产生交互,运营者负有披露人工智能“身份”的义务。于相对人难以分辨甚至容易误认时,运营者应当采取恰当方式,明确告知相对人,与之熟练交互的并非人类,而是机器人。在商业领域尤其是电子商务领域,机器人客服(又称智能客服)早已得到推广,技术的突破使得机器人医生、教师、律师、工程师、程序员、新闻主播、网络博主等服务“工种”亦不再只是远景。在非面对面交互场景中,满足相对人获知服务性质(人工还是机器)的信息需求具有现实紧迫性。 对于消费者而言,获知“服务者”的机器人属性是其作出知情决定的前提,即是否接受机器人提供的服务,还是选择切换到人工服务模式,或者在经营者只提供机器人服务时选择不与其发生交易,而不是在不了解情况之下,徒然从一个机器人切换到另一个机器人。而在社交网络场景中,“机器人混迹于人类”的现象及其负面影响已经引发广泛的国际关注,成为网络空间治理的重要对象。由大型互联网企业签署的《欧盟虚假信息行为准则》(EU Code of Practice on Disnformation)致力的目标即包括抓紧关闭虚假账户(fake account),针对机器人(bots)建立清晰的标识体系和规则,以确保其行为不与人类行为相混淆等。开设机器人账号往往是平台服务商所反对的。即使平台在一定条件下予以容忍,由于其他网络用户在与机器人账号的交互中无法分辨,账号运营者同样有义务披露账号的机器人属性。刻意隐瞒甚至努力制造账号为人类输出的假象,具有扰乱公共秩序的性质。 要求运营者公开账号的机器人身份,与网络空间“匿名的权利”(right to anonymity)或我国实施的“后台实名,前台自愿”原则均不冲突。“匿名的权利”或“后台实名,前台自愿”均只适用于人类,其宗旨在于保护作为主体的人所享有的言论自由等基本权利,对机器并无“匿名的权利”一说。相反,“披露对话者的机器人身份”之上存在着重大的公共利益,即不让人类言论空间遭到不当干扰,公众不致因混淆造成错误认知,防止舆论走向受到操纵。 (二)披露“内容系人工智能生成”的义务 就人工智能系统生成内容,制作和传播者负有添加必要标识,以防止误认的义务。如果用户利用服务商提供的智能工具制作和传播内容,应当在内容有被误认风险时,添加“内容系人工智能合成”标签,甚至进一步提示相关内容“纯属虚构”。需要指出的是,当用户在自己的终端操作,系统的提供者通常无从乃至无权知晓用户制作的内容,即便其了解到用户利用其提供的智能工具制作有害内容并加以传播,也只能停止系统服务,并无权利侵入用户终端,寻找和删除其中的文件。因此,只有当提供者实际了解到有人利用此类工具制作、复制、发布、传播虚假信息,方应履行透明度义务,如“及时采取辟谣措施,保存有关记录,并向网信部门和有关主管部门报告”等。 如果内容由人工智能系统运用自身“学识”独立生产,则此种人工智能服务的提供者不属于内容制作工具提供者,而是相当于媒介法视野中的出版者。通过网络提供上述生成式人工智能服务,服务提供者在性质上有别于责任避风港规则所庇护的为他人内容的传播提供平台、通道、路标一类服务的主体。即便根据更为宽松的美国《通讯庄重法》(CDA),这种人工智能服务的提供者因其“参与创建或发展内容”同样应被归为出版者或发言者,不享受法律给予“交互式计算机服务的提供者”的责任豁免。此类服务提供者对于其运营的人工智能系统所生成内容有合法性审核义务,而不能坐等权利人的投诉。虽然运营者可以向内容定制用户作出免责声明,但是,声明对受生成内容侵害的第三人(如遭受诽谤者)并无效力。 另一方面,提供信息类产品的生成式人工智能服务仍由过错责任规则调整,并非人工智能一生成有害内容,服务提供者即应承担法律责任。于其尽到经济上合理、技术上可行的注意时,便无需负责。鉴于内容自动生成是此类人工智能系统的特征,为防范输出虚假有害内容造成影响,运营者可以就事实类信息提供信源,尽量做到平衡呈现(既给出肯定报道也给出质疑报道),对于真实性存疑的信息添加标签等。除采取技术上可行、成本上合理的筛查措施之外,服务提供者还应建立观察纠错机制,包括开通便捷的用户反馈渠道。当系统基于用户请求或提示而输出有害内容,用户能够将问题及时反映给运营者。对于人工智能自动生成的内容,谈不上删除、屏蔽或断开链接,而是需要检视相关有害内容的“请求—响应”过程,对系统作出适当调整,包括向用户作出虚假信息风险提示等。服务提供者未尽到上述透明度义务的,则应承担相应的法律责任。即便尚未对他人造成实际损害,但已酿成显著的误认危险,执法部门仍可责令其立即加以改正,并作出相应处罚。 (三)提交和公布内容治理报告的义务 即便前述人工智能系统的运营者努力做到申明机器人身份,并为系统生成内容添加标注,也还是需要建立观察纠错机制,包括开通便捷的用户反馈渠道,其原因在于,运营者未必总是能够尽到合理注意,且即便其尽到合理注意,亦不能完全避免错误有害内容之输出。人工智能系统所具有的大数据投喂训练、用户输入以及算法模型选择等因素使得输出有害内容的风险难以完全消失。为了完成“作业”,人工智能甚至会编造杜撰。 强求“天使一般的人工智能”意味着禁止人工智能,并非最佳政策选项,对一切有害信息输出均追究运营者责任,亦难谓公允,但完全依赖运营者自我纠错,难免有口惠而实不至甚至有害输出愈演愈烈的风险。较为妥当的规制方法是要求运营者就其内容治理机制及执行保持充分的透明度,包括向举报有害信息的用户及时反馈处置措施及效果。大型人工智能系统运营者还应当向社会公布并向监管部门报告,从而倒逼自己积极设置和执行以“举报/警报—处置/调试”为基础的内容管理机制。国家网信办《网络信息内容生态治理规定》第17条规定,网络信息内容服务平台应当编制网络信息内容生态治理工作年度报告,年度报告应当包括网络信息内容生态治理工作情况、网络信息内容生态治理负责人履职情况、社会评价情况等内容。人工智能内容生成服务往往通过网络来提供,对其中的大型运营者可按照本条规定下的“网络信息内容服务平台”加以监管,要求其履行透明度报告义务。德国《社交媒体法》(NetzDG)要求注册用户超过200万的大型社交媒体运营者定期制作和提交办理用户投诉情况的报告,相关规定亦可供作参考。
04
基于自动化决定相对人信息需求的透明度义务 辅助乃至代替人类作出关乎他人利益的决定,可谓人工智能系统的一项带有革命性的功能。在经济生活领域,人工智能频繁出场,为企业筛选合适的缔约对象。在公共事务领域,“法律代码化”的人工智能可以斟酌案件事实,辅助官员或独立作出裁决。无论是缔约机会的拒绝,还是某种不利益例如行政处罚的施加,当决定由系统自动生成或受到系统评估的实质影响,都意味着相对人不得不接受没有表情和温度的机器的左右。这一图景引发了关于机器专断甚至机器专制的可以理解的广泛担忧。为保护受到自动化决定波及的相对人,决定一方的透明度义务不可缺少。 (一)面向隐私与个人信息保护的透明度义务 当下,缔约阶段的自动化决定广受关注,企业在就业招聘、个人投保、申请贷款等场合依靠人工智能系统对申请缔约者进行自动筛选,即为适例。这里应当明确的是,个体并没有要求企业、机构按特定标准评价其并在评价结果为正面时与之缔结法律关系的权利。市场经济的灵魂是经济主体的决策自由,这既包括买方有权自主选择卖方,也包括卖方自主选择买方。无论同意还是拒绝交易,民事主体原则上并不需要向对方解释理由。在众多应聘者中,招聘一方独独录取了一个他人心目中并不出色的人,就属于这种自由。是否启用人工智能来筛选,对企业的选择自由并无影响。企业所部署的人工智能系统并非慧眼如炬,或者系统给出了关于个体的积极评价,并不导致企业失去说“不”的自由。 不过,在谈判缔约阶段借助自动化决定系统虽不导致强制缔约义务,但决定一方需要充分尊重相对人的隐私与个人信息自决权利。在上述企业招聘、个人投保和申请信用贷款等情形,自动化决定通常以个体数字画像(profiling)为依据。企业需要首先占有被筛选者的个人信息,再将之输入人工智能系统,由系统分析得出有关被筛选者的鉴定结论。有些情形下,画像是以打分方式(scoring)体现的。显然,凡是自动化决定过程涉及个人信息处理的,决定一方即属于个人信息处理者,需要尽到保护相对人隐私及个人信息的义务,俾使相对人就其个人信息的所在、内容、用途、处理及销毁等事项充分知情和行使自决权。 因此,缔约阶段使用自动化决定者应当就处理个人信息情况向相对人作如实披露。决定一方应当清楚无误地告知相对人,需要其提供个人信息,或允许决定一方收集其个人信息,以评估缔约可能性,相对人是否入围将由系统根据算法评估结果自动决定。相对人应被清楚告知,其有权拒绝本人信息被用于自动化的缔约评估及决定。如果相对人接受自动化决定程序,决定一方仍有义务告知需要收集或已合法掌握的个人信息及来源,并单独说明实际纳入系统处理的个人信息,以可理解的方式说明信息处理的基本逻辑,尤其是所处理的个人信息(类型)与目的的相关性。自动化决定一经作出,决定一方就应当立即告知相对人,且鉴于信息处理目的已经达成,决定一方还应就个人信息的销毁作出说明,如继续保存则应说明理由。 要求使用自动化决定者就所处理的个人信息与处理目的的相关性进行说明,为相对人提供了检视和参与决定流程的机会。正如德国立法者指出的那样,当法律保障个人能够了解画像一方存储和使用了哪些个人数据以进行画像和作出决定,数据主体便获得了更正错误数据、就其个人数据中的特殊情形(例如信贷记录中的问题)作出合理解释以消除误解的机会。虽然相对人无权要求决定一方采用何种评价模型,但可以对相关性成立与否提出质疑。按照我国个人信息保护法第6条之规定,所处理的个人信息应当与处理目的“直接相关”,且“限于实现处理目的的最小范围”,即所谓“最小必要”原则。一旦决定一方的个人信息处理不满足这一原则,将构成对相对人的侵权。这一法律风险的存在反过来又迫使决定一方努力选取更为科学的评价模型,从而形成一种良性循环。 自动化决定也可以出现在合同履行(包括解约)环节。在不涉及个人信息处理的情形,如出租方基于承租方迟延支付租金而由其人工智能系统自动作出解除合同决定并通知承租人,或是合同买方的人工智能系统根据卖方申请作出付款决定并执行,这些自动化决定的妥当与否自依当事人约定评判,并不发生新类型的义务或责任。与此不同,如果合同履行环节中的自动化决定以个人信息处理为前提,则同样发生决定一方对另一方的信息披露义务。决定一方应当合理告知相对人自动化决定的内容、所处理的个人信息、处理的必要性、作出决定的理由以及合同或法律依据。在实际案例中,有金融从业者在婚恋网站注册,其账号却在不久后被系统识别为含有“杀猪盘”风险而遭冻结,原因是该用户在与其他成员互动中不时使用金融类术语,导致系统判断其为诈骗分子而自动作出决定。这里,平台对用户活动进行了监测和分析,构成对其隐私及个人信息的侵入,虽然其目的在于防范诈骗,保护成员权益,但应当就监测和分析的手段、方式以及如何保护用户隐私及个人信息安全、手段相对于目的的合比例性作出事先说明,取得成员许可。系统作出处置决定后,应当立即告知冻结账号的理由及合同或法律依据,以保障被处置者及时判断其个人信息是否遭到错误或违法处理。 (二)面向防止歧视的透明度义务 除了保护隐私及个人信息,为使用自动化决定者设定的透明度义务还具有反歧视功能,从而构成公民基本权利的屏障。所谓歧视,是指基于个体的种族、肤色、性别、出生或者出身等“生来就有并且无法改变的特征”等给予差别对待,尤其是贬低性对待。这也意味着,哪里存在个人信息处理,哪里就有或大或小的歧视风险。以个人信息处理为基础的自动化决定同样如此。相对于人工决定,自动化决定具有高效和批量处理的特点,更可能造成大面积的歧视。 人工智能系统作出歧视性决定,首先可能肇因于算法设置。欲实现对个体之评判,往往需要人工进行评价因子/规则的初始设定,这就为个人的主观立场渗透进机器运算提供了机会。个体数字画像经常使用的聚类算法也为歧视性的生成提供了可乘之机。歧视性还可能是机器学习的“符合逻辑”的结果。2014年,亚马逊公司开发了一款人工智能招聘软件,该系统会对应聘者给出从1到5的星级评分。令人惊讶的是,该系统显示出对男性应聘者的偏爱。开发者查找原因,发现系统的机器学习模型是根据近10年来提交给亚马逊的简历进行训练的,其中大部分来自男性,经过这些数据的训练,系统“学会了”对简历中包含“女性”一词的应聘对象表达轻视态度,甚至降级来自全女子大学的候选人。 消除人工智能系统的歧视性,除了必要的外部检测(审计),透明度规则可以发挥关键性作用。要求使用自动化决定一方告知所掌握及所处理的个人信息,并就个人信息与处理目的的相关性进行说明,相对人即可从中察觉歧视性的蛛丝马迹。上文指出,歧视的本质特征是将那些与生俱来无法改变的特征(如年龄、种族、肤色、出生地)或个人有权自由选择的生活方式(如宗教信仰、伴侣关系、性生活等)作为品质、能力高下的评判尺度。国内外个人信息保护制度如欧盟《个人数据保护指令》(95/46/EC)第8条、《通用数据保护条例》第9条将这些信息予以单列,名之曰特殊类型个人数据,一个主要意图正是防止歧视的发生。不过,在防止滥用特殊类型个人数据问题上,紧盯系统出厂设置是不够的,因为歧视性常常产生于人工智能的具体应用环节。同样一套人工智能系统,输入普通个人信息生成的决定不带有偏见,输入年龄、种族等信息却可能生成歧视性决定。对于具有学习能力的人工智能系统,仅仅进行出厂检测更有挂一漏万之嫌,透明度规则恰好可以补上这一短板。为充分保障个体免于歧视,使用自动化决定一方如处理特殊类型个人数据,则在取得单独同意之外,有义务说明处理的必要性与合法性所在,必要情况下,还应说明为防止此类信息被用作歧视性评价而采取的安全措施。借助上述规定,相对人得以及时知悉使用自动化决定一方是否准备将其特殊类型个人数据纳入系统处理并作为评价因子,从而有机会提出质疑或反对。 (三)面向被决定方申辩权的透明度义务 为防止人工智能系统接管决定权产生的自动化不公正,一些法域如欧盟给出的对策是保障受影响个体“获得数据控制人一方人工介入、表达本人观点以及对决定提出质疑的权利”,但是,这一方案的公法底色使其并不十分适合于民事领域,相反,将其贯彻于公法领域的自动化决定过程,则显得顺理成章。无论是机器充任裁判者“剥夺被影响个体质疑、反对或参与决策的机会”,抑或“陈情被听取的权利”(right to be heard)作为一项基本权利因自动化决定系统的引入而面临落空危险,这些后果通常在公法语境中才具有可救济性。 当人工智能系统参与公权力对个体利益的决定过程之中,当事人的申辩权亦应得到充分保障。公共部门决策可在多大程度上交给自动化系统,并非本文研究的主题。不过,应予正视的现实是,在公共部门职责范围如税收申报扣缴、交通违章处理、商事登记、商标注册乃至简单民事争议解决等领域,存在着对自动化处理的庞大需求。人工智能助理的引入恐为大势所趋,机器人助手的意见实质上影响人类主观的决定将难以避免。为此,有研究者指出,人工智能系统需要在决策过程中保持高透明度,以此确保可理解性。但高透明度难以通过事后的决策解释来实现,而应当是通过决策时系统提供决定理由来实现的。因此,有必要为机器决策建立一个可以让决定方和相对方充分交换意见的架构。换言之,如果由机器人充任裁判者,则机器人既要具备评判当事人申辩的能力,又要具备程序正义的“意识”,其能够确保当事人行使申辩权以及“充分听取”当事人申辩。在美国有关救济金发放的集体诉讼案中,法院即指出,救济金发放部门在借助人工智能作出减少救济金数目的的决定时,应当事先通知受影响者并给予反驳的机会。 针对自动化决定的法律控制并不是努力消除“算法黑箱”。现代法治原则要求,公权力对公民自由与财产的任何侵入均需具备法定理由,通常为建立在证据的采信与排除基础上的对构成要件是否满足的认定。一项行政处罚决定须以对责任构成要件的认定为基础,一项社会福利给付决定须以给付条件是否具备的认定为基础。因此,实现公正的关键在于由机器作出的自动化裁判是否包含了关于法定理由成立或不成立的论证,而不在于支撑决定作出的技术流程如何。算法的难以理解乃至算法过程的不透明性(“算法黑箱”)并不意味着决定公正性的无法保证,人类自身的思维过程往往也是一个黑箱,但这丝毫不影响人类充任法官的正当性。 但是,即便机器人法官“考虑”了全案事由,并为其决定给出洋洋洒洒的论证,也不能赋予其终审权。人工智能貌似娓娓说理,实际上脱离或曲解案件事实,或者错误援引、解释法律、判例,并非天方夜谭。特别地,尽管有着这样或那样的缺点,但人对于同类的信任仍然超过了对冷冰冰的机器。在共情能力的意义上,“人类更能理解人类”的确信仍然是当代人的普遍信念。因此,在发挥人工智能效能的同时,还需要“每一个机器裁判官背后都站着一位人类复审官”作为安全保障。面对公法意义上的自动化裁决,相对人享有申辩的权利,且有权利要求由人类听取其申辩并作出最终决定,而不得将这一权力移交给机器。 贯彻上述原则,同样需要透明度义务的保障。具体而言,依法使用自动化(辅助)决定系统的公共部门除向相对人告知决定本身外,还有义务披露自动化系统的运行及所发挥的作用、对自动化系统所作决定负责的法律主体、系统处理的信息(包括个人信息)及决定依据、就决定向人类官员申诉的具体途径等。
05
结语 对人工智能系统的掌控者提出透明度要求,根本上是基于一种利益权衡的政策考量。人工智能治理的目的不是消灭一切人工智能风险,而是通过治理“促进包容性经济增长、可持续发展和创新,保障人权和基本自由”(《布莱切利宣言》)。落实到制度设计层面,就是注意防范那些现实而非臆想的重大人工智能风险,既避免扼杀技术创新,又尽量通过市场竞争的力量达到更高水平的安全。恰当的信息披露要求可以帮助消除或显著降低人工智能系统运行的风险,同时又不至于让国家过度卷入微观经济运行而不合理地干预市场经济,是一种可取的治理进路。 当前,人工智能系统主要在三个维度上作用于现实世界和人类生活,从而表现出三重属性:一是帮助人类认识和改造世界的工具,可称为软件产品;二是具备内容自生成能力的新型媒介,可与人类实现交互;三是基于自身强大的信息处理能力的有较强独立性的决策工具。相应地,可以区分出三类典型透明度需求:来自人工智能系统使用者(用户、部署者、运营者)的透明度需求,目的在于实现对系统的正确使用并避免故障;来自与人工智能系统进行交互的相对人(其范围可能构成公众)的透明度需求,目的在于实现对人工智能系统之存在的认知,避免陷于错误认识;来自人工智能系统自动化决定所针对的人的透明度需求,目的在于维护隐私与个人信息自决、免于歧视以及申辩权等基本权利。对于上述正当透明度需求,人工智能系统提供者、运营者负有披露相应信息的义务;违反上述义务的,可在造成损害时对其科以民事责任,亦可视义务人过错程度、侵害情节及后果对其给予行政处罚。 不难看出,上述透明度规则既可归于“人工智能风险治理”的主题之下,同时又分别属于个人信息保护法、消费者权益保护法、产品质量法、合同法、程序法乃至网络安全法规则,彰显出人工智能法的领域法特征。欧盟《人工智能法》中即包含相当数量的个人信息保护规定,其中“禁止的人工智能实践”规定相当程度上针对侵害个人信息权利的行为。该法案序言(9)明确,新立法框架不影响欧盟现有法律特别是关于数据保护、消费者保护、基本权利、就业和工人保护以及产品安全法律的效力,新法是对这些法律的补充。因此,立法上既可以将透明度规则分别补充到相应的法律之中,也可以统一写入单行的人工智能法,同时指明与相关法律制度的体系关联。此外,系统提供者、运营者透明度义务规定构成人工智能法透明度规则的主体部分,并不排斥法律就国家应负的职责作出规定,例如加强人工智能风险教育、就公共部门使用人工智能工具的情况及评估结果进行信息公开、分享人工智能风险预警信息及应对方法等。
END
往期推荐:
龙宗智:法院“阅核制”应当慎行——兼论审判监督管理的合理限度
中国政法大学 主办
版权声明
本站所有文章来源于本站原创或网络,如有侵权请联系删除。文章观点并不代表本站观点,请网友自行判断,如涉及投资、理财请谨慎应对!
发表评论:
◎欢迎参与讨论,请在这里发表您的看法、交流您的观点。