摘 要 : 刑法面对人工智能问题的当务之急是挖掘教义学在当下及短期未来的适用潜力,这需要对智 能算法这一核心概念进行教义学观审。算法黑箱和算法操纵问题是智能算法的核心争议问题,由于人工智 能技术极强的自反性及两面性,应当兼顾对刑事风险的规制与对算法本身蕴含法益的刑法保护。智能算法 蕴含的混合法益应包括作为公共法益的“算法安全”及作为开发者竞争优势的“算法权利”,对智能算法的刑 法保护应围绕二者进行展开。智能算法的刑事规制应当围绕输入端、运算端及输出端进行有区别的展开,风 险预防原则与正当程序原则应得到坚持,可以考虑刑事合规制度的引入
问题的提出
工业社会以来,科技革命便愈发呈现出自反性特征:解决方案和解放许诺在付诸实施时明显暴露出成问题的一面,而这些又反过来成了科学密集分析的对象。人工智能时代,科技革命的这种自反性更为明显———带有“人为制造的不确定性”的人工智能技术,无疑是对人类算力和决策力的巨大解放,但大数据技术、深度学习技术的大量运用使得人工智能的可解释性及可预测性日渐淡化,这暗合了贝克对风险社会的描述,成为了担忧与反思的起点———风险和焦虑总是相伴而生、如影随形。在人工智能技术已得到广泛运用的今天,如何面对人工智能应用过程中引发的社会问题,已成为当代法学研究的重要使命。近年来的人工智能刑法学研究基本围绕以下三个命题展:第一、人工智能刑法学研究意义,即是否有必要在当下开展人工智能的刑法研究;第二,人工智能体的刑法地位,即人工智能体能否具有刑事责任主体地位;第三,涉人工智能犯罪中的归责问题,包括如何在人工智能体及其研发者、使用者间配置刑事责任和新型罪名的设立讨论。讨论过程中,学界基本形成了三种截然不同的研究思路,即“将来视角”“当下视角”及“统合视角”;不同的研究思路导致了学界研究重心的分歧。认同“未来视角”的学者往往立足于“强人工智能”的概念,对技术进步抱持极高的期待与信念,试图构建面向未来的、能够兼容强、弱两种人工智能体的新刑法体系。与之相对,“当下视角”则坚持刑法对未来的谦抑品质,试图挖掘传统刑法教义学在当下及短期未来的适用潜力。“统合视角”则认为“将来视角”与“当下视角”无法兼顾涉人工智能犯罪及刑法教义 学的现状与未来,因此主张以“算法安全犯罪”的概念同时指称弱人工智能时代的涉人工智能犯罪及强人工智能时代的涉人工智能犯罪,进行合并研究。考察“将来视角”及“统合视角”,以下问题值得注意:首先,人工智能领域刑事立法的过早启动违背了刑法谦抑性的基本品格。作为一项新兴的技术类型,人工智能与法治的耦合应肇始于民商事及行政领域的法治实践。“将来视角”对强人工智能体犯罪的讨论将刑事立法置于法治实践以前,可能有使立法陷入“一遇到社会失范现象,首先想到的就是动用刑法进行干预和调整”的刑法工具主义风险之中。其次,“将来视角”及“统合视角”对技术进步 抱持的极强信念本质上反映的仍是“进步共识的社 会构想”,即“技术进步等于社会进步”的社会共识;然则此种观念随着科技革命的不断深化及现代化的不断迭代,已经遭到了较为普遍的质疑;因此,以拥抱技术进步的态势对未来涉人工智能犯罪作出乐观预期的观点并非是当代社会的文化共识。因此,笔者赞同“当下视角”的研究思路,刑法面对人工智能问题的当务之急是挖掘传统刑法教义学在当下及短期未来的适用潜力。而在当下,人工智能的本质仍“在于算法和数据处理”,“类人化”的物理形体并非构成人工智能的必备要素,即使是人形机器人,也只不过是算法主导下的一个硬件系统。由此,刑法教义学对人工智能技术的观审应围绕智能算法这一核心概念展开。
智能算法的教义学观审智能算法的现状考察
算法,是指一种获得所需结果的机械过程 ; 即在 有限步内,从一定类型的数据,导出一定类型的结 果。不论是古典的传统算法还是时兴的智能算法,均是数据输入至结果输出的过程。传统算法的 运行过程具有透明性,其运算的每一环节均在算法 设计者的掌控之下,因此刑法学界往往将其纳入工 具的范畴,关注较少。在传统算法向智能算法迭代的过程中,两项技 术起到了至关重要的作用 : 大技术数据和机器学习 (尤其是无监督学习) 技术 ; 智能算法也因此被赋予了传统算法所不具有的技术特征,即数据前置、自我 适应和高速迭代。首先,大数据技术的运用使得人类认知模式从对即有事物的描述和对未知事物的创构,转化为对物的数据化和数据的物化过程。“数 据”这一本来作为认知结果的概念成为了认知的原 料与要素,并日益居于认知过程的核心地位。由此, 传统以因果关系为支撑、强调必然性和方向性的认 知模式被突破,而作为一种全新认知方法的算法过 程也日渐呈现出“黑箱”姿态,产生了“算法黑箱”问 题。其次,机器学习的运用,导致了智能算法的自我 适应与高速迭代。“通过从数据中推断,自己学会 做事的方法……掌握的数据越多,它们的工作就越顺利”,凭借自我适应的特征,智能算法得以自主适应人类社会的需要,自主取得问题最优解。同时, 无监督学习技术的广泛运用也为智能算法的高速迭 代提供了技术基础。 自我适应和高速迭代不仅使得 智能算法的可解释性降低,更使得其对人类决策的可替代性日益增强,产生了“算法操纵”问题。(二) 智能算法核心争议的教义学评价如前所述,智能算法的技术特征引申出“算法 黑箱”和“算法操纵”两大核心争议 ; 因此,教义学对 智能算法的观察亦应围绕这两个问题展开。诚如法 国哲学家卡斯托利阿达斯所说: “技术将世界分为 两个基础的领域 : 绝对抵制人类能力的和以某种方 式抵制人类能力的。技术创造就是在这两者之间找出差异,并在世界的合理性以及不确定的空间中进 行。”人工智能时代下, “算法黑箱”和“算法操 纵”均带有极强的两面性特征,而这种两面性刻画了人工智能社会的基本面貌,应当得到法律的全面评价。当下刑法学对智能算法的研究,往往以风险社 会理论为讨论原点,通过分析智能算法的刑事风险类型,讨论如何对其进行刑事规制。总结来看,智能 算法蕴含的刑事风险贯穿于其设计、输入、计算、输 出的各个环节: (1) 在算法设计环节,由于智能算法 对人类决策的可替代性,如何在设计阶段规避目的 不良算法的产生成为问题; (2) 在数据输入环节,如 何确保数据安全值得讨论; (3) 在算法运行过程中, 由于智能算法的黑箱特性,现有的刑法教义学体系 如何回应由此带来的危害行为、因果关系、主观罪 过、刑事责任等方面的异化; (4) 在结果输出环节, 算法歧视、算法集权的风险不容忽视。风险以外, “算法黑箱”和“算法操控”并不天然 无价值。智能算法与人类生活日益绑定的同时,其 与法益的关系也日渐密切。然而,既往的研究在探 寻智能算法与法益的关系时往往更倾向从规制角度 论证未来涉人工智能犯罪所侵犯的法益。这或许忽 视了其本身蕴含的巨大技术价值———智能算法亦含 有值得保护的法益 : 例如,作为设计者的竞争优势, 智能算法可被作为商业秘密看待 ; 再如,由于智能算 法运用过程中牵涉大量数据,其运作的稳定性在未 来或许牵涉公共安全,小型的数据泄露事件亦可能 侵犯个体的隐私权等。通过对智能算法核心争议“算法黑箱”及“算法 操纵”两面性的完整分析,在智能算法与刑法体系 耦合的过程中,应当兼顾对刑事风险的规制与对算法本身蕴含法益的刑法保护。在刑事规制层面,应当跳出规制企业行为、规制人工智能本身的传统思 维,树立起数据安全保障、算法规制为核心的人工智 能刑法评价模式。而在刑法保护层面,则应准确厘清智能算法本身包含的法益,对智能算法内含的 法益进行复归。
法益复归思路下智能算法的刑法保护
智能算法内含法益的复归作为刑事立法的一项基本指导原则,法益保护 原则是现代刑法教义学展开的基础。“现代法益概 念使国家动用刑罚具有正当化根据,同时划定了处罚界限 : 只有当某种行为具有法益侵害性时,对之设 置处罚规定才是正当的。”因此,对智能算法的教 义学审查应起步于对智能算法内含法益的分析———这也是部分以智能算法为对象的失范行为能够被认定为刑事犯罪而非民事、行政失范的根源所在。有 论者曾对涉人工智能失范行为的刑事可罚性起点做 出如下论述: “在假设人工智能 (AI) 已经成为民商 事法律主体的前提下,应当承认 AI 具备刑法可谴责 性的条件。”此种观点将涉人工智能失范行为的可罚性前提与民商事立法绑定,看似严格遵循了刑 法的谦抑性品格,实际却消解了刑法的独立性地位。刑法的最后手段性并不意味着其对其他部门法的体 系性依赖,只有完成了对智能算法内含法益的分析, 才能对智能算法的刑法保护与刑事规制展开行之有 效的讨论。目前学界对智能算法内含法益问题主要有以下 三种观点 :1.新生法益论。有论者指出,随着智能时代的 到来,新型经济关系和社会关系得以涌现,产生了许 多“既有法律规范难以有效涵盖和调整”的“新生法 益”。此种“新生法益”的具体类型无法在传统刑法 理论中找到归属,立足当下对“新生法益”进行解读,即便是“通过修改法律条款、扩张性解释或者类比适用,也会遭遇捉襟见肘的困境”。新生法益论 克服了当下涉人工智能法律问题讨论中泛滥的“空 想化”姿态,但也忽视了智能算法已被大量应用于 社会活动的实践样貌。将智能算法的内涵归纳为笼 统的“新生法益”的论述,虽然能够获得一个方向正 确但界限模糊的答案,却无法对当下及可见未来智 能算法与法治实践耦合过程中发现的刑法问题提供 具体的教义学指引。2.安全型法益论。此为一系列观点的统称,具体来看包括“社会秩序说”“数据安全说”与“算法安 全说”。“社会秩序说”对智能算法蕴含法益的描绘 较为模糊,大致认为智能算法的稳定性关乎社会伦 理、法律秩序、社会风险治理秩序等多方面秩序的维 护。此种观点的缺陷与新生法益说类似,即无法更 进一步地对智能算法与刑事法耦合过程提供具体指引。与之相对, “数据安全说”与“算法安全说”的观 点则更为具体。“数据安全说”主张将数据安全作 为人工智能犯罪保护的法益 : 大数据与深度学习的 技术背景下,数据是智能算法决策的原料与素材 ; 面临信息犯罪日渐严峻的异化态势,受侵害的数据质 量、规模与危害性后果都愈发严重。“算法安全 说”提出了算法安全概念,认为算法自主性是智能算法的核心要义。该说认为,尽管智能算法本身与 数据的联系十分紧密,然而数据安全本质上是一种 混合法益,包含了虚拟数据权利 ( 即虚拟空间数据 指向的权利,如虚拟财产) 、真实数据权利 ( 即以数 据为载体的现实世界中的身份性、财产性利益) 和 人工智能数据权利 (即智能算法的安全与稳定) 。 其中,虚拟数据权利与真实数据权利均为网络时代 便已存在的法益,其与智能算法间不具有唯一关联 性,我国已经通过诸如破坏计算机信息系统罪等信 息网络犯罪的立法活动完成了对此类法益的初步保 护 ; 因此,智能算法蕴含的独特法益应为数据安全中 人工智能数据权利指向的算法安全。3.混合法益论。持该说的学者认为 : 人工智能 时代,随着数据在社会生活的多个领域得以体现,数 据犯罪侵害的法益也更加多元。单纯以某种社会秩序作为智能算法蕴含法益的观点忽视了这种多元性 : 人工智能技术的发展与国家发展战略联系日益 密切,智能算法的稳定可能关乎国家安全 ; 大数据时 代,公民的人格、信息均呈现出数据化倾向,因此,智能算法的稳定亦关乎公民个人隐私。由此,该说认 为智能算法蕴含的法益应是包含个人隐私权、商业 秘密权、社会秩序与国家安全的混合法益。如前所述,新生法益论、安全型法益论中的社会 秩序说及算法安全说,均由于其自身表述的模糊性 或非专属性而不应采纳。因此,值得进一步权衡的 是算法安全说与混合法益论。支持算法安全说的学 者对混合法益论提出的主要批评意见为 : 即使是混 合法益论,仍需要运用复合法益论来确定其中法益的主次 关 系,并以抢劫罪规定于侵财罪中为例 证。[17]然而在笔者看来,此种批评并不能成立 : 首 先,使用复合法益理论分析混合法益说本身便承认了智能算法蕴含法益的多元化与复杂性。同样以抢劫罪为例,公民的人身权利是本罪当然保护的法 益———这是本罪区别于抢夺罪的根本特征 ; 不能因 为其居次要地位而否认其本身的法益属性。其次, 算法安全说展示了当下学界对智能算法考察侧重刑 事规制、忽视刑法保护的现状。将智能算法蕴含的 法益限定在算法安全这一社会秩序的观点实质上是 将智能算法看做一项未来的风险加以规避。然而如 前所述,当我们聚焦于智能算法的巨大技术价值时, 其作为开发者的一项巨大竞争优势亦应得到包括刑 法在内的法律保护。因此,较之算法安全论,混合法益论的观点更为 全面地揭示了智能算法的两面性特征 ; 需要思考的 问题也由此转化为对智能算法所蕴含混合法益的具体界定。正如李斯特所言: “法益概念,也必然包含着对某种干涉的禁止。”在混合法益的具体界定 上,应抱持谨慎的态度,进行法益衡量。由于智能算 法的数据前置特性,其运算过程以大量数据的输入 为前提,而作为输入源的大数据可能涵盖了公民的 个人隐私,这是部分混合法益论者主张混合法益中 包括个人隐私权的重要原因。然而,智能算法本质 上仅是“数据输入-结果输出”的一个中间环节,由 于“算法黑箱”的特性,数据在输入后的可解性变 差,前述对个人隐私泄露 的担忧往往只能发生于 “数据输入”即算法启动以前。除此之外,有论者亦 主张如目的不良的算法设计及智能算法的稳定性遭 到破坏,则可能导致个人隐私泄露。我们需要追问的是,此时被泄漏的个人隐私信息,是以个人法益的 形式存在,还是以公共法益组成部分的形式存在?对于目的不良或稳定性遭破坏的智能算法,虽然结 果上可能导致个人隐私信息的泄露,然而这种泄露 显然可以归属于教义学对“公共安全”所谓“不特定 多数”的理解,实际上仍应在“算法安全”这一公共 法益的涵射范畴。然而,当将智能算法作为一项竞 争优势加以考量时,其价值便有了特定的归属,不能 一概划分至“不特定多数”的“公共安全”内,而应属 于一种“算法权利”。综上所述,智能算法蕴含的混合法益应包括作 为公共法益的“算法安全”及作为开发者竞争优势 的“算法权利”。面向“算法安全”时,刑法保护的是 智能算法不被滥用的稳定性 ; 而面 向“算法权利”时,刑法保护的是智能算法本身的技术价值。(二) 智能算法刑法保护的具体展开1.算法安全的刑法保护在讨论刑法保护算法安全的具体举措之前,首 先应对“算法安全的刑法保护”与“智能算法的刑事 规制”做出一定辨析。“算法安全”是指智能算法内 蕴含的指向社会秩序的公共法益,因此, “算法安全 的刑法保护”强调的是防止外界对算法稳定性及用 途的破坏。与此相对, “智能算法的刑法规制”虽也 主要保护的是指向社会秩序的公共法益,强调的却 是对算法本身蕴含风险的甄别和规避。对于智能算 法的刑事规制,笔者将在下一部分详细论述,故不在 此展开。而刑法对算法安全的保护,可以从以下几 方面展开 :第一,对智能算法稳定性的保护。如前所述,人 工智能的结果输出以前置的海量数据为前提。两项 内部风险可能影响智能算法的稳定性,进而危及算 法安全 : 首先,智能算法的内部缺陷可能导致结果输 出的不合理 ; 其次,大数据本身携带的偏见亦会加剧 人工智能结果输出的偏见,即算法歧视现象。由此,必须设立智能算法的自我纠正机制 ; 对于某些关乎算法安全的自我纠正机制缺位(尤其是涉及医疗卫 生、军事用途等重要领域时) ,刑法可以考虑在必要 时进行介入,防止此种机制缺位的内部风险演变成 外部的危害结果。具体到弱人工智能的当下,对 智能算法稳定性的刑法保护可以考虑破坏计算机信 息系统罪的适用空间,将破坏智能算法稳定性的行为解释为本罪“对计算机信息系统功能进行删除、 修改、增加、干扰,造成计算机系统不能正常运行” “对计算机信息系统中存储、处理、传输的数据和应 用程序进行删除、修改、增加的操作”的情形。第二,对智能算法用途的保护。有论者指出,人 工智能时代背景下,滥用人工智能行为的社会危害 性远超过许多传统的犯罪行为,鉴于此,有必要以兜底条款的形式将滥用人工智能的行为纳入刑法处罚范围。此类犯罪与现行刑法条文的适配性较差, 只能采用另立新法的方式进行规制。在人工智能技 术发展前景仍不甚明确的当下,采用兜底条款的立 法技术不失为一种行之有效的规制手段,但在具体 立法、适用过程中仍应审慎把握本罪的适用空间,注 意本罪保护法益“算法安全”的公共属性。2.算法权利的刑法保护“算法权利”是指智能算法内蕴含的指向算法 设计者、使用者的私人法益。具有独创性价值的智 能算法可视情形纳入知识产权的文义范畴,以这种 算法为对象的犯罪可以以侵犯知识产权犯罪定罪量 刑。由于知识产权本身可被分为以著作权、专利权为代表的传统知识产权和以商业秘密权为代表的新 型知识产权,我国关于知识产权犯罪规定有假冒专 利罪、侵犯著作权罪、侵犯商业秘密罪等罪名。以具 有独创性价值的智能算法为犯罪对象的行为究竟应 当被评价为哪种罪名,取决于智能算法的类型定位, 总结来看,作为私人法益的“算法权益”,存在以下 三种不同的保护路径 : 著作权保护路径、专利权保护 路径及商业秘密保护路径。著作权保护路径强调算法作为计算机软件组成 部分之一的结构特征。该种观点的支持者主张 : 由 于我国《著作权法》第 3 条第(八) 项及《计算机软件保护条例》第 5 条均将计算机软件蕴含的知识产权 归属于著作权,因此,作为人工智能软件重要组成部 分的智能算法亦应当按照著作权进行保护。在笔者 看来,此种观点忽视了算法与传统文学、美术作品的 区别。尽管在形式上,算法亦可以被视为一串符号 的特殊组合形式 ; 然而,由于机器语言的根本价值在 于代码功能的运行与实现,行为人完全可以在窥知 智能算法的决策思路、技术手段后选用与原算法截 然不同的机器语言形式实现同样的效果。此时,尽 管原权利确认的代码并未受到著作权意义上的侵 犯,但该算法蕴含知识产权的损失已然发生。此外, 随着技术进步,算法侵权的形式也日渐多样、隐蔽, 著作权保护路径并不能充分保护智能算法的价值。专利权保护路径与商业秘密保护路径是学界争 议较大的两种模式。支持专利权保护路径的学者指 出,由于智能算法本身蕴含有诸如“算法黑箱”“算 法歧视”等不透明性弊端,采取商业秘密保护路径 会放大智能算法的不透明性 ; 在此前提下,专利保护路径明确强调“以公开换保护”的观念有利于通过 公开算法而避免其蕴含的社会风险。专利权和商 业秘密权的核心区别在于 : 由于要求对知识产权的绝对垄断,专利权以公开知识产权的具体细节为原 则 ; 商业秘密权不追求对知识产权的绝对垄断,因此 以不公开知识产权的具体细节为原则。在笔者看来,专利权保护路径的支持者过于聚焦于“算法黑 箱”的负面潜能,以致忽视了“算法黑箱”本身的技 术价值———在专利保护路径之下,算法黑箱的打破 成为原则,这不仅为算法设计者设定了过高义务,阻 碍了技术进步的积极性 ; 更是对智能算法与传统算 法区别即“算法黑箱”技术价值的误读与消解。出 于对智能算法内含技术价值的保护,笔者支持商业 秘密保护路径,以具有独创性价值的智能算法为犯 罪对象的行为可以依照我国现有刑法第 219 条即侵犯商业秘密罪定罪处罚。需要补充的是,支持商业 秘密保护路径的观点并不似部分学者担忧的那样排 斥所有公开智能算法细节的情形,相反,在一定的场合下,即使是商业秘密保护路径论者也承认应当对 算法进行适当公开。
智能算法的刑法规制
智能算法刑法规制的基本立场通过内含法益的复归,智能算法的技术价值得 以获得刑法的保护。在此基础上,智能算法的刑事 风险不容忽视,只有对智能算法的刑事风险进行合 理的规制,我们才能在权利保障、技术发展与风险防 控间取得平衡。具体来说,智能算法的刑事规制应 遵守以下两个基本立场 :1.风险预防原则联合国环境署 1992 年通过的《关于环境与发 展的里约宣言》第 15 条曾就未来国际社会的发展 问题指出: “在严重的或不可逆转的损害威胁存在的领域,缺乏充分的科学确定性不应成为暂缓采取有成本效益的措施来防止环境恶化的理由。”此 宣言虽主要为规制技术发展带来的环保问题而生, 但其对待技术问题的态度可以推而广之,即对于技 术前景尚不明朗的领域,人类社会往往倾向采取审 慎的态度,对其中可能的风险采取预防的态势——— 这便是风险预防原则的基本内涵。有论者援引客观归责理论中“允许的风险”理 论,认为智能算法的风险“在一定程度上应当被刑 法所容忍”。那么如何理解“允许的风险”与风险预防原则的关系呢? 应当注意,此处援引的“允许 的风险”理论更多立足于立法政策而非刑事违法性 判断,其与风险预防原则是要求立法者进行法益衡 量的一体两面———立法者当然不能由于风险的存在 而一概否定人工智能的应用图景 ; 与此同时,亦不能 否认部分对侵害法益的智能算法应用行为可以被出 罪化。一种更为合理的逻辑是 : 在立法层面,应当坚 持风险预防原则,以审慎的态势确保智能算法运用 过程中重大法益的稳定性 ; 而在教义学指引的界定 不法及行为归责层面,则可以灵活运用“允许的风 险”理论,对智能算法应用过程中造成的部分具有 法益侵害的行为予以出罪化。2.正当程序原则在讨论“算法操纵”带来的刑事风险时,不少论 者均强调算法的“可解释性”或者透明化是解决算 法操纵的必由之路。并援引 2018 年由“谷歌大脑团队”研发出的“可解释性的基础构件”技术,论证 人类意图对人工神经网络算法进行可视化操作,使 算法的工作状态回到“人类尺度”。然而, “可解释性的基础构件”仅是人类技术对智能算法运算过 程的一种拟合,并不意味着真正打破了智能算法的 黑箱。一个必须正视的技术现实是,尽管人工神经网络算法技术已经较为成熟,然而目前对其解释的 尝试仍停留于运算过程的浅表。算法的可解释性 已经出现了迟滞于人工智能技术应用的现实窘境。由此,迟滞的算法解释尝试已经无法对前置的人工 智能技术应用产生的刑事风险发挥预防效果。法律 实践者也逐步发现,算法黑箱在法律上所能被转译 的内容,一点儿也不支持算法透明性的要求。基于算法解释的迟滞性,正当程序原则成为一 条更为优越的规制思路。正当程序原则可从形式与 实质上进行展开。形式的正当程序原则要求算法权 利的拥有者公开其算法运作的程序或者过程,来证 明算法权利行使的正当性,这通常体现为双重要求 :第一,程序本身是公开的 ; 第二,程序的设计本身是 正当的,以此排除目的不良的智能算法。在对智 能算法进行规制时,公开性原则产生了一定的形变 :由于智能算法本身的黑箱属性与算法解释的迟滞 性,仅仅将算法程序公开显然无法满足风险预防原 则的要求。因此,形式的正当程序原则第二项要求 即“程序设计本身是正当的”,便成为规制智能算法 刑事风险的重要思路。与之相对,实质的正当程序 原则追求智能算法实质的正当性,这往往表现为通 过对涉及人身安全、公共安全等重要法益的保留,强 化对目的不良及结果不良算法的筛选及剔除,即部分论者表述的“重大利益保留原则”。(二) 智能算法刑法规制的具体展开智能算法的决策过程可被划分为数据输入、数 据运算及结果输出三个阶段,即输入端、运算端及输 出端三个运算端口。在智能算法决策的不同阶段, 可选择的刑事规制方式并不相同,刑法的介入难度 也有所差异。因此,通过对不同端口特征的把握,智 能算法的刑法规制方案可以进行更为具体的展开。1.输入端。作为大数据技术应用的产物,智能 算法的决策过程离不开数据的输入, “有数据方有 人工智能”。在智能算法的输入端,刑法规制的重点便在于对输入数据的风险把控,具体而言包括以 下两个方面 : 第一,由于智能算法及其设计、使用者 对作为决策原料的数据来源在所不问,所输入的数 据可能混入未经公民授权的隐私数据,从而侵犯公民的隐私权利 ; 第二,由于输入数据本身的片面性及 智能算法运行的功利导向,输入端极易成为算法歧 视产生的根源,从而侵犯公民的人格平等权。对于第一种情况,现有刑法可以通过侵犯公民个人信 息罪进行有效规制 ; 而对于第二种情况,现行刑法体 系尚不能做出有效回应,需要进行进一步完善。除 此之外,在智能算法的启动环节,必须坚持对目的不 良算法的筛选及限制。2019 年 4 月,欧盟委员会通 过了《可信赖人工智能道德准则》,该准则规定: “可 靠的人工智能应提供关于人工智能系统影响和塑造 组织决策过程的程度、系统的设计选择以及开发合 理性的解释。”笔者赞同此种规制思路,即在智能算 法设计完成后、运算开始前的输入端口便进行开发 合理性的审查,通过重大利益事项的保留,防止风险 的启动。2.运算端。与输入端不同,刑法规制在运算端 的开展面临着较大的技术困境。前文对算法黑箱的 论述已证明 : 智能算法的不透明性与其技术价值是 一体两面的关系,对智能算法进行解释尝试的过程 必然伴随着对其技术价值的消解 ; 况且,随着人工智 能技术的高速迭代,智能算法的可解释性已经产生 了迟滞现象。因此,出于对智能算法技术价值的保 护及人工智能技术现状的考察,刑法不应在未发生 法益侵害的情况下,过度介入智能算法的运算环节。当然,这并不意味着任何情况下都不应对智能算法 进行解释———恰如部分论者所主张的, “算法的可 解释性是算法进入法律的前提”。但笔者认为,此种解释的尝试不应在运算端频频展开,智能算法的 解释尝试可留待输出端解决。3.输出端。智能算法的运算过程终止于结果的 输出,但对智能算法的刑法规制不能仅止于此。结 果不良算法的存在表明,即使是目的良好的算法也 可能由于各种原因,输出不良的决策与结果。此时, 若一味坚持智能算法决策的独立性,放任此种不良 结果的输出与传播,则可能导致法益侵害后果的扩 散。因此,针对输出不良结果导致法益侵害的的智 能算法,有必要在制止其结果传播的基础上,向其决 策过程的前端回溯,打开智能算法的技术黑箱,考察 此算法的设计思路与价值取向,从而在算法的设计 者、使用者与社会公众间合理配置不良结果引发的 刑事责任。对比在运算端对智能算法进行实时解释 的方案,此种方案不仅较好地考虑了智能算法解释 的迟滞性,更坚守了刑法的谦抑性本位,有利于抑制 刑法对新兴技术的过度介入,从而理顺在规制智能算法问题上刑法与其他部门法的关系,促进人工智能技术的进一步发展。(三) 智能算法刑事合规制度引入的探讨鉴于智能算法解释的迟滞性,当下有论者主张 应在智能算法的刑事规制领域引入刑事合规制度, 以构建智能算法内部与外部、预防与刑罚并重的风 险防控系统,并从“算法设计上对人工智能的识别能力、决策能力和行为方式预先进行合规性审 查”。刑事合规制度起源于 20 世纪 60 年代的美国, 是企业合规管理制度的组成部分。1987 年颁布的 《联邦量刑指南》在 1991 年增加了“组织体量刑”章,正式建立了通过刑事合规计划审查进行刑罚减免的量刑机制。作为一种预防、发现犯罪而主动 实施的内部机制,刑事合规计划可以在刑事诉讼的 各个环节产生深远的影响 : 在审前环节,涉案企业可 以依据自身制定的刑事合规计划与检察官达成不起诉协议以免于刑事诉讼 ; 在审判环节,涉案企业也可 以通过制定形式合规计划寻求刑罚的减免。笔者赞同智能算法规制领域刑事合规制度的引 入,理由有三 :第一,刑事合规制度的引入是对人工智能时代 刑事风险的合理配置。如前所述, “算法黑箱”因其 蕴含的技术价值而值得刑法保护,但与此同时,此种 技术价值的最大受益者即为算法的设计者与使用 者,因此,作为算法设计者与使用者的相关企业亦应 承担起人工智能时代风险防控的职责,与国家一同 形成智能算法刑事风险的共同治理者。在此前提 下,刑事合规计划通过正当化事由的规定与量刑减 免引导智能算法设计、使用者参与到对智能算法刑 事风险的治理过程中,有利于其更好地履行自身的 合规义务,确立其对智能算法刑事风险的保证人地 位。第二,刑事合规制度的引入是对人工智能时代 预防刑法转向的回应。当下,人工智能技术的应用 已经领先于对人类社会智能算法的解释力,在此情 形下,预防刑法的转向更为明显 ; 刑事合规制度的建 立恰是对此种预防倾向的回应与补强。第三,刑事合规制度的引入,有利于解决智能算 法带来的归责难题。由于人工智能技术的复杂性、 裁量的独立性和行为自控性等特点,使得现实中会出现人工智能因过失导致的法益侵害,存在无法归 责的空白地带。诚然,前文中提到 的“允许 的风 险”理论可以对部分法益侵害予以出罪化,然而,由于智能算法刑事规制风险预防原则的基本立场, “允许的风险”理论应当受到一定限制。刑事合规 制度通过对各方风险预防责任的事先配置,完善了 归责制度,有利于减少由于智能算法刑事风险带来 的归责难题。
摘自 唐逸伦 《智能算法的刑法保护与规制路径研究》