人工智能时代的算法裁判及其规制

现在的世界已经进入人工智能时代, 我们也已经进入了算法社会。在人工智能的发展中, 算法发挥着极其重要的作用。算法裁判即指人工智能可以代替法官直接做出裁判, 目前已在我国和西方许多国家的司法实践中得到运用, 尽管尚存在一定的争议, 如算法裁判可能产生的算法黑箱、算法鸿沟、算法独裁、算法歧视、算法不透明等问题, 但其所具有的相对客观性、中立性、效率性、公正性等优势却是毋庸置疑的。智能时代和算法社会已经到来, 算法裁判的运用也是科技与法律结合的必然要求和体现。我们应未雨绸缪, 在将人工智能和算法裁判运用于司法实践的同时, 正视其可能带来的弊端和缺陷, 通过技术革新不断弥补和完善其漏洞, 通过立法对其运用进行规制, 使其更好地为人类社会服务, 最终实现智慧司法和公正司法的目的。

人工智能自从1956年诞生后, 由于受到智能算法、计算速度等多方面因素的影响, 其技术和应用发展经历了三起两落。2006年以来, 以深度学习为代表的机器学习算法在机器视觉和语音识别等领域取得了极大成功, 识别准确性大幅提升, 使人工智能再次受到学术界和产业界的广泛关注。从2010年开始, 人工智能进入爆发式发展阶段, 其最主要的驱动力是大数据时代的到来, 运算能力及机器学习算法得到提高。[1]42016年3月, 阿尔法狗 (Alpha Go) 大胜世界围棋冠军李世石, 人工智能再次成为社会关注的热点。随着大数据的积聚、理论算法的革新、计算能力的提升, 人工智能在很多学科领域得到了广泛应用, 并取得了丰硕成果, 无论在理论还是实践上都已自成一个系统。[2]1可以毫不夸张地说, 现在的世界已经进入了人工智能时代。与此同时, 我们已经进入了算法社会, 人工智能、互联网、物联网这些只不过都是算法社会的序曲, [3]我们正在进入“算法统治的时代”, [4]我们生活在算法的时代。当今文明社会的每个角落都存在算法, 日常生活的每分每秒也都和算法有关。有人甚至预言:“如果所有算法都突然停止运转, 那么就是人类的世界末日。”[5]3

人工智能的核心是深度学习, 这种深度学习需要依赖以数据为基础的算法运行, 通过算法人工智能可以将超高运算效率与存储容量纳为己用, 实现似人类自身智能的增幅与扩容。[6]这种深度学习能力是人工智能算法与传统计算机技术的根本区别。深度学习通过提取数据中的抽象特征, 实现对纷繁复杂的数据的高效处理、分类和学习, 从而能够自动挖掘隐藏在数据中的规律和规则, 以备解决未来的难题。[7]

关于算法的概念, 学者们一般定义为过程、方法、指令、处方等。“算法 (algorithm) 是在有限的时间内一步步完成某个任务的过程”[8]1;“算法是一种有限、确定、有效的并适合用计算机程序来实现的解决问题的方法”[9]1;“算法是为实现某个任务而构造的简单指令集。在日常用语中, 算法有时称为过程或处方”[10]114。2018年4月16日, 英国议会下属的人工智能特别委员会发布《英国人工智能发展的计划、能力与志向》报告, 内容包含数据安全、人工智能开发设计、人工智能的法律责任以及算法歧视等问题。该报告将算法定义为“指用计算机时执行计算或解决问题的一系列指令, 它们构成了计算机可以执行的所有事情的基础, 因此是所有人工智能系统的基本方面”[11]14。

关于算法的特征, 一般认为包括:输入、输出、精确性、确定性、有穷性、正确性、通用性。1就目前的标准来看, 算法应当具有以下3大重要特征才被视为拥有实际效果:一是算法应该是有限的。算法应该在有限的时间内用有限的步骤解决旨在解决的问题, 也就是说算法必须在有限的时间内完成, 要不然就没有现实意义。二是算法应该具有明确的指令。算法中的每个步骤必须经过精确定义, 同时应针对每种情况做出明确说明。三是算法应该切实有效。算法应当能够解决其旨在解决的问题。[12]

马科斯·奥特罗 (Marcos Otero) 认为, 线合并排序、快速排序与堆排序; (2) 傅利叶变换与快速傅利叶变换; (3) 迪杰斯特拉算法 (又译作戴克斯特拉算法) ; (4) RSA算法; (5) 安全哈希算法; (6) 整数分解; (7) 链接分析; (8) 比例微积分算法; (9) 数据压缩算法; (10) 随机数生成算法。[12]这些算法在实践中均有不同的适用对象和范围。

目前, 以大数据、机器学习、希克人工智能、算法等为核心的自动决策系统的应用日益广泛, 从购物推荐、个性化内容推荐、保险评估等, 再到司法程序中的犯罪风险评估, 越来越多的决策工作为机器、算法和人工智能所取代, 算法可以为人类社会中的各种事务和决策工作带来完全的客观性。[13]240算法裁判即是人工智能对司法实践影响的重要体现。英格兰和威尔士上诉法院官布里格斯 (Briggs) 在在线法院的倡议中提出了算法裁判, 即人工智能可以代替法官直接做出裁判。[14]

随着人工智能的辅助性功效逐渐深入人类的日常生活, 人类正将大量的抉择工作交给人工智能。这种情况在很大程度上已经成为现实。[15]35但是由于信息量过大, 人们不得不依赖个性化内容的推荐, 而推荐本质上就是算法的结果;同时, 在信息大爆炸的背景下, 各种评估信息也在兴起, 这也使得人们的决策越来越受制于算法。具体到审判, 一旦由人工智能对犯罪嫌疑人或被告人的风险进行评估, 算法就会影响到量刑的程度。可以说, 人工智能的进一步发展对未来法庭的司法活动带来革命性影响。

算法裁判尽管目前在司法实践中的运用尚处于初级阶段, 但其所具有的优势却是显而易见的。

首先是客观性。相比人的决策, 算法决策更不容易受到固有偏见的影响而更加公平客观。[16]在传统的司法裁判中, 影响判决结果的因素很多, 其中法官个人的因素不容忽视。正如有人形象地比喻说, 被告人遭受什么样的刑罚, 取决于法官早餐吃什么。美国的一项实证研究表明, 法官在饿着肚子判案时更加严厉, 倾向于给犯罪人判处更重的刑罚, [17]因为确定犯罪嫌疑人所应遭受的刑罚, 属于法官自由裁量权之范围。人类决策往往表现出明显的局限性和极端的公共政策偏见, 导致效率低下或不公正的过程和结果。而算法决策是倾向于公平的, 因为数学关乎方程, 而非肤色。所以, 存在一种利用数学方法将人类社会事务量化、客观化的思潮, 学者称之为“数学清洗”或“数据宗教”。[13]241算法在设计研发之初, 被认为具有刚正不阿的特质, 能够进行客观的决策并克服人类思维的局限性, 这是算法裁判得以运用的最重要因素。

二是效率性。影响传统司法裁决效率的因素很多, 包括法官个人的综合法律素质、诉讼模式、诉讼程序的规定和案件的复杂程度等。如在英、美法系, 由于奉行“程序至上”和“正当法律程序”的理念, 实行“遵循先例”原则, 导致诉讼程序繁琐, 效率相对低下。而在大陆法系, 由于实行的是成文法体系, 程序的规定比较详尽, 法官只能严格机械地适用法律, 从而影响到裁判的效率。由于算法以海量的相关数据为基础, 具有非常强大的运算能力, 因此, 其在裁判中的运用, 可以极大地节省司法资源, 提高司法效率。未来, 随着算法在裁决中适用范围的不断扩大, 法官的判决在司法活动中的重要性将不断下降。因为在判决之前, 算法就可将诉讼请求与已有的相关法律以及先前的案例 (判例) 进行匹配, 从而得出诉讼双方的获胜概率。诉讼双方根据获胜概率决定诉讼策略 (如美国的辩诉交易制度和我国的认罪认罚从宽制度、刑事和解制度等) , 可以提高诉讼效率和效果, 减少不必要的上诉、抗诉和申诉。

三是中立性。由于算法裁判不是由传统意义上的人而是由算法来完成的, 这就避免了个人主观情感因素的潜在影响和其他因素的干扰, 从而在一定程度上可以保证裁决的中立性。中立性与前述客观性密不可分。

西方国家主要是美国, 首先将人工智能和算法裁判运用于司法实践并已取得较大成绩。“在美国, 人工智能正被广泛地运用于司法活动”, 如人工智能辅助侦查破案, 辅助科学证据可采性审查, 辅助评估保释, 以及预测案件的审理结果。[18]人工智能和算法裁判在国外尤其是西方发达国家司法实践中的广泛运用, 可以为我国提供参考和借鉴。美国著名法学家波斯纳认为, 我们可以收集法官们的观点、公开言论, 以及其他所有信息, 然后为法官们建立档案, 用来做出各种司法审判方面的预测。[19]142他在《21世纪法官的职责》这篇论文中预测, 算法时代的到来可能会给司法工作带来的各种改变:

我希望在将来的某一天, 我们可以利用计算机为法官们建立档案, 内容包括他们的观点以及公开言论, 并在法官们表达新观点时及时更新他们的档案。 (这些) 档案将帮助

随着人工智能、大数据和算法的飞速发展, 波斯纳的这一愿望已经或者正在实现。

案件预测是人工智能和算法裁判在司法实践中的重要运用领域。在司法实践中, 许多实验证明, 算法预测判决结果的正确率高于人类。在2004年的一项研究中, 研究人员安排若干名法律专家与一种算法同台竞技, 预测高等法院判决时陪审团的多数意见。结果算法正确地预测出75%的判决结果, 而法律专家们预测准确率却只有59%。[19]1432016年, 研究人员利用欧洲人权法院公开的判决书训练算法系统, 构建了模型来预测案件判决结果, 预测准确率达到了79%。[13]275

面对人工智能和算法的飞速发展, 我国也开始从国家层面积极布局和规划。为落实《关于积极推进“互联网+”行动的指导意见》, 加快人工智能产业发展, 2016年5月18日, 国家发展改革委、科技部、工业和信息化部、中央网信办制定了《“互联网+”人工智能三年行动实施方案》, 除了对人工智能的发展进行全方位布局外, 还提出建设“算法与技术开放平台”。2017年7月8日, 国务院印发《新一代人工智能发展规划》, 将人工智能发展上升到国家战略高度。在提出的新一代人工智能发展规划中, 即包括人工智能在司法服务等领域的广泛应用。具体到算法, 要求“加强引领人工智能算法、模型发展的数学基础理论研究”, “围绕提升我国人工智能国际竞争力的迫切需求, 新一代人工智能关键共性技术的研发部署要以算法为核心……”

为积极落实国家人工智能发展规划和司法改革任务, 在人民法院的第4个 (2014—2018) 和第5个 (2019—2023) 五年改革纲要中, 均将人工智能的运用作为重要任务之一, 已经取得重要进展。正如原中共中央政治局委员、中央政法委书记孟建柱在讲话中所总结的, 近年来, 贵州、上海创造性地运用大数据、人工智能分析证据, 明确不同诉讼阶段的基本证据标准指引, 研发智能辅助办案系统, 构建跨部门大数据办案平台, 探索了一条司法体制改革和现代科技应用融合的新路子。智能辅助办案系统不是要取代线下刑事诉讼活动, 也不是要替代司法人员独立判断, 而是发挥人工智能在数据采集、整理、分析、综合方面的优势, 帮助司法人员依法、全面、规范收集和审查证据, 统一司法尺度, 保障司法公正。贵州、上海两地的探索尽管还处于起步阶段, 但已显现出强大的生命力, 为运用现代科技推进以审判为中心的刑事诉讼制度改革提供了广阔的前景。[20]目前全国其他地方法院人工智能和算法裁判的运用正在不断推进中。

我国目前正在大力发展和建设的智慧法院即是算法裁判在司法实践中的具体体现。在智慧法庭领域, 智慧法庭的建设和应用需要依托于智能大数据分析、语音识别、图像视频分析等多项人工智能技术的支撑, 从而实现案情要素的分析、庭审语音识别自动转写、庭审行为视频分析、庭审视频流媒体转发与调度等功能。因此, 为实现法院审判体系和审判能力智能化, 需要研制庭审数据格式统一规范、庭审数据深度分析等规范, 利用深度学习算法对多元化数据进行挖掘分析, 进而提升庭审效率。[1]55-56

2019年2月27日, 最高人民法院发布了《中国法院的司法改革 (2013—2018) 》白皮书, 在最后一部分 (第11部分) “推进智慧法院建设”中, 详细介绍了5年来人民法院在全面加强智慧法院建设中所取得的成就, 其中与人工智能和算法裁判相关的包括开发应用刑事审判智能辅助系统和加强案件审理与司法管理的智能化辅助。根据中央关于推进以审判为中心的诉讼制度改革的部署, 上海开发刑事审判智能辅助办案系统, 创造性地运用大数据、云计算、人工智能等现代科技手段, 制定统一适用的证据标准、证据规则并嵌入公安、检察、法院、司法行政各机关的刑事办案系统中, 帮助公安、检察、法院办案人员依法、全面、规范收集和审查证据, 确保侦查、审查起诉的案件事实证据经得起法律检验, 确保刑事办案过程全程可视、全程留痕、全程监督, 以减少司法任意性, 有效防范冤假错案产生。2016年8月, 最高人民法院印发关于全面推进人民法院电子卷宗随案同步生成和深度应用的指导意见, 推动案件卷宗随案电子化并上传办案系统, 为法官网上办案实质化、审判辅助智能化创造条件。[21]60

目前各个法院的案例都处在人工智能的辅助阶段, 未来随着人工智能和算法裁判应用的进一步加深, 相信一些标准化的纠纷案例能够实现人工智能自动审判。不过, 一旦当事人对于人工智能所产生的预审判决不满意, 在早期, 应允许启动正常司法程序, 适用传统的司法模式。鉴于目前人们对于人工智能的不了解与不信任, 在初始阶段, 可以将人工智能的判决结果作为预审, 或者利用人工智能辅助完成审判过程中的一系列事项。当然, 审判中的某些领域适用人工智能和算法裁判并不是很合适, 正如日本著名人工智能专家松尾丰所说:“民事诉讼, 尤其是离婚或者财产继承等纠纷, 由于包含着很多情感因素及需要对当事人的利害关系进行协调等, 也许还是由人来处理比较合适。我估计, 比起让机器告诉你说‘你的主张被法庭认可的概率是15%’, 很多人可能更愿意与律师面对面地交谈, 这样当事人或许更容易接受”[22]169。

虽然人工智能和算法裁判在审判业务中扮演着重要的角色, 但是, 在审判过程中, 其处于从属地位, 辅助法官办案, 法官才是审判工作的关键与核心。因此, 智慧审判的未来, 事务性工作归人工智能, 事关经验与良知运用的实体裁判归审判人员, 审判人员居于主导地位。[23]

尽管算法裁判具有上述天然的优势, 但是, 如果人类把所有的司法判决都交给算法, 也极可能产生如下5种主要弊端。

首先是算法黑箱。在信息技术领域, “黑箱” (black box) 指的是当专业人员对计算系统进行理解和测试时, 并不知道或能够查看计算系统的内部工作情况。与传统机器学习不同, 深度学习并不遵循数据输入、特征提取、特征选择、逻辑推理、预测的过程, 而是由计算机直接从事物原始特征出发, 自动学习和生成高级的认知结果。在人工智能输入的数据与输出的答案之间, 存在着我们无法洞悉的“隐层”, 即“黑箱”。这里的“黑箱”并不仅意味着不能观察, 还意味着即使计算机试图向我们解释, 我们也无法理解。[24]算法就是在这一黑箱中进行自动化的数据处理、评估和行为分析, 从而根据不同情况做出针对不同场景的决策。从理论上来说, 算法可能会把信息结果同时展示给争议的双方。但是由于算法中涉及海量信息, 所以算法是否会把所有的信息都毫无保留地提供给争议双方, 从实践上来说又是存疑的, 从而导致算法黑箱的产生。

作为一种辅助的法律系统, 算法不仅要娴熟地理解法律条文, 更重要的是要理解人。[15]36法庭判决不仅仅是法律要件的机械适配, 还需要对案件的主体、客体等要素进行综合判断。同时, 由于算法系统以大数据为基础, 审判的决策实际上是根据数据得出的一个运算结果。在这个过程中, 争议双方只能看到输入的数据和得出的结果, 而对其中的运算过程则一无所知, 由此也会导致算法黑箱或算法独裁的出现。数据真实性缺乏保障, 算法“暗箱”缺乏监督也是面临的新问题。[25]

二是算法鸿沟。对算法的理解和认识需要较专业的知识, 而对这些专业知识的认识和理解, 显然不是每一个人都可以具备的。即使计算机会把所有的信息提供给争议双方, 仍可能产生算法鸿沟问题, 因为由于知识结构的差异, 争议双方在对算法的理解上可能存在分歧, 达成共识比较困难。

三是算法独裁和歧视。算法尽管有自身的优势, 可以解放法官, 提高庭审效率, 但如果把所有的裁判均交给算法, 由其来决定裁判结果, 可能会造成算法独裁, 从而产生新的不公平。

人工智能时代, 我们在网络中的一切日益受到算法的左右。从信用评分到犯罪风险评分, 我们日益生活在由各种打分构建的“算法牢狱”[26]当中, 算法和机器歧视问题随之产生。随着自动化决策系统日益被广泛应用在教育、就业、信用、贷款、保险、广告、医疗、治安、刑事司法程序等诸多领域, 算法和机器歧视问题变得日益突出。算法设计的效率导向、作为算法运行基础的数据之偏差与算法黑箱造成的透明度缺失共同触发了算法歧视。[27]以美国为例, 犯罪风险评估软件造成了不容忽视的歧视问题。比如, Northpointe公司开发的犯罪风险评估算法COMPAS对犯罪人的再犯风险进行评估, 并给出一个再犯风险分数, 法官可以据此决定犯罪人所应遭受的刑罚。非营利组织ProPublica研究发现, 这一算法系统性地歧视黑人, 白人更多被错误地评估为具有低犯罪风险, 而黑人则被错误地评估为具有高犯罪风险的几率两倍于白人。通过对7 000多名犯罪人的追踪, ProPublica发现, COMPAS给出的再犯风险分数在预测未来犯罪方面非常不可靠, 在被预测为未来会犯暴力犯罪的犯罪人中, 仅有20%的犯罪人后来确实再次实施犯罪。[26]这就使得算法裁判的准确性大打折扣, 影响到其在司法实践中的更广泛运用。在著名的威斯康星州诉艾瑞克·卢米斯案中, 面临6年有期徒刑的卢米斯质疑法官使用COMPAS算法作为量刑的工具, 认为该算法考虑了性别因素并基于群体数据做决策, 侵犯了他的平等权。而法院却认为COMPAS算法使用性别因素是为了提升准确性而非基于歧视的目的, 因此卢米斯的平等权并没有被侵犯。[25];[28]在此案中法官并未要求算法所有者对算法的评估过程、算法内容进行说明和解释, 也没有要求算法公开。由此可见, 当算法涉及做出了歧视性的评估的时候, 美国法院倾向于保护算法拥有者的商业秘密。而这对被告人来说显然是不公正的。

四是算法不透明。人工智能开发最成功的3大应用模块———量刑辅助、类案推荐和偏离预警均存在技术瓶颈, 尤其是量刑辅助模块中, 量刑算法的非可视化是急需应对的技术难题。[29]

人们质疑自主决策系统, 主要是因为这一系统一般仅仅输出一个数字, 比如信用分数或者犯罪风险分数, 而未提供做出这一决策所依据的材料和理由。传统上, 法官在做出判决之前, 需要进行充分的说理和论证, 这些都是公众可以审阅的。但是, 自动化决策系统并不如此运作, 普通人根本无法理解其算法的原理和机制, 因为自动化决策常常是在算法这一“黑箱”中做出的, 不透明性问题由此产生。美国学者珍娜·布雷尔在《机器如何“思考”:理解机器学习算法中的不透明性》一文中, 论述了3种形式的不透明性:因公司商业秘密或者国家秘密而产生的不透明性;因技术文盲而产生的不透明性;以及从机器学习算法的特征以及要求将它们有效适用的测量中产生的不透明性。因此, 在需要质疑自动化决策的结果时, 比如希望在法庭上挑战算法决策的合理性或者公平性, 如何解释算法和机器学习就成了一大难题。这种不透明性使得人们很难了解算法的内在工作机制, 尤其是对一个不懂计算机技术的外行而言。[13]249-250美国学者凯文·凯利认为:“技术只有透明才能获益。”[30]327目前, 很多大数据学习算法在决策判断时标准并不透明, 这使得从技术层面跟踪代码违规几乎是不可能。由于算法的复杂性, 研究人员本身可能也无法判断到底是什么环节导致它们学会了歧视。所以, 大数据公司应公布他们所使用的大数据算法的源码和所用的数据。这样可以确保大数据公司不是仅仅为了利益 (或是效率) , 而故意牺牲了“公平”和道义。[31]

五是算法问责。在人工智能时代, 如果人们对算法裁判的结果不满意, 是否可以对其进行问责和司法审查?在算法决策盛行的时代, 对算法进行审查存在许多困难, 但却是极为必要的。我们应对算法裁判中存在的问题进行深入的研究, 方能提出切实可行的解决方案。

总之, 算法裁判尽管有其天然的优势, 但其缺陷也是显而易见的。正如美国学者多梅尔所指出的:“算法有可能胜任法庭上的多项工作, 甚至可以有效地提高现行法律制度的公平性, 但是它们无法胜任判决工作”, “至少目前不行”。[19]145

国务院在印发的《新一代人工智能发展规划》中即指出, “人工智能发展的不确定性带来新挑战”。人工智能可能带来冲击法律与社会伦理、侵犯个人隐私等问题。要求“在大力发展人工智能的同时, 必须高度重视可能带来的安全风险挑战, 加强前瞻预防与约束引导, 最大限度地降低风险, 确保人工智能安全、可靠、可控发展”。针对算法裁判目前存在的问题和弊端, 可从以下5个方面予以规制。

首先是制定促进人工智能健康发展的法律法规和伦理规范。我国目前尚没有专门规制人工智能运行的法律, 仅有的相关规范就是2018年5月1日实施的《个人信息安全规范》。然而这只是一部推荐性的国家标准, 不具有强制执行力。我们应根据国务院《新一代人工智能发展规划》的要求, 制定促进人工智能健康发展的法律法规和伦理规范, 加强人工智能相关法律、伦理和社会问题研究, 建立保障人工智能健康发展的法律法规和伦理道德框架。针对人工智能的发展对国家治理、法律制度和社会伦理等产生的影响, 著名人工智能专家吴季松认为, 需要法制的约束与监督并建议考虑制定《人工智能法》, 消除人工智能的负面影响, 扩大其正面影响, 更好地为人类造福。[32]197-198

二是建立健全公开透明的人工智能监管体系, 实行设计问责和应用监督并重的双层监管结构, 实现对人工智能算法设计、产品开发和成果应用等的全流程监管。人工智能和算法裁判的运用和发展既需要制定法律法规和伦理规范对其进行制约, 又需要建立健全公开透明的人工智能监管体系, 才能保证对其的制约能真正落到实处。

三是制定个人信息保护法和合理算法标准以消除算法歧视。我国现如今的信息科学技术居世界前列, 对算法歧视的担忧也并非杞人忧天。针对大数据算法的歧视性, 有学者提出可以尝试开展如下3个方面的工作来加以缓解, 即增加大数据算法的透明性;利用法律确保大数据算法的公平性;谋求构建更加和谐的社会关系。[31]我国现行法律对算法歧视不能提供有效的救济。结合全国人大立法规划, 我国对算法歧视应采取个人信息保护法和合理算法标准相结合的综合治理路径。其中, 个人信息保护法应包括禁止各种算法歧视的强制性规定, 排除个人信息收集、希克处理、使用过程中的一切歧视性做法;合理算法标准应引导算法决策的设计者、使用者将禁止算法歧视的原则、规则嵌入算法之中。个人信息保护法与合理算法标准相辅相成, 前者是原则, 后者是贯彻, 共同致力于消除算法歧视的大目标。[33]

四是制定专门的算法问责监管法, 以增强智能算法的透明性。我们不仅应建构必要的伦理道德规范体系, 还应增强智能算法的透明性。正如丹妮拉·济慈·西特伦在《技术正当程序》一文中所指出的:“鉴于智能算法日益决定着各种决策的结果, 人们需要建构技术公平规范体系, 通过程序设计来保障公平的实现, 并借助于技术程序的正当性来强化智能决策系统的透明性、可审查性和可解释性。”[34]一些国家已通过立法对算法的公平和透明进行专门监督。2017年12月, 纽约市议会通过《算法问责法案》, 要求成立一个由自动化决策系统专家和相应的公民组织代表组成的工作组, 专门监督自动决策算法的公平和透明。我们可以借鉴美国的经验, 制定专门的算法问责监管法, 确保其结果的公平和透明。

五是树立以个人能动性为主、算法裁判等人工智能技术为辅的理念, 最终实现智能司法。在未来算法裁判大行其道的同时, 法官的存在依然是十分必要和有意义的。一方面, 我们可以依据算法得出更为精准的判决结果;另一方面, 要警惕算法可能带来的独裁、歧视和不透明等弊端。而这些弊端之预防和避免, 必须依靠法官的主观能动性。所以, 未来对法官的要求不是越来越低, 而是会更高。要加强对法官人工智能和算法等新技术的培训, 提高其运用能力, 让新技术辅助司法裁判, 保证司法改革各项目标的实现。正如上海高院资深刑事法官徐世亮所言:“审判是一门艺术, 有些事情机器干不了。”他举例说, 同样是盗窃3 000元钱, 一种是为生活所迫, 另一种是游手好闲, 那主观恶性能一样吗?判决结果也会不一样。“做了这么多年刑事法官, 越发觉得法律绝对不是硬邦邦的, 这恰恰体现了司法的价值。‘206’会提高办案效率, 成为一个越来越合格的法官助理, 但不可能取代法官”。上海高院副院长黄祥青说:“我们对‘206’的角色有一个清晰合理的设定, 就是让它来识别浩繁的卷宗, 防止人工遗漏, 提取呈现有用的信息, 然后由法官来判断。”[35]

在人工智能和算法大行其道的时代, 在算法日益代替人类进行各种决策尤其进行司法裁判的时代, 设计出验证、证实、知情同意、透明性、可责性、救济、责任等方面的机制, 对于预防、削弱或者避免算法黑箱、鸿沟、独裁、歧视和不透明等弊端, 确保公平正义之实现, 意义重大。此外, 还需要通过技术革新弥补算法及其裁判的漏洞和缺陷, 通过立法对人工智能和算法裁判进行规制, 使其沿着法制化的轨道向前发展, “努力让人民群众在每一个司法案件中都感受到公平正义”, 最终实现智慧司法和公正司法的目的。

[2]鲁斌, 刘丽, 李继荣, 姜丽梅.人工智能及应用[M].北京:清华大学出版社, 2017.

[5]佩德罗·多明戈斯.终极算法:机器学习和人工智能如何重塑世界[M].黄芳萍, 译.北京:中信出版社, 2017.

[8]迈克尔·T.古德里奇, 罗伯托·塔马西亚.算法设计与应用[M].乔海燕, 李悫炜, 王烁程, 译.北京:机械工业出版社, 2018.

[10]迈克尔·西普塞.计算理论导引[M].段磊, 唐常杰, 等译.北京:机械工业出版社, 2015.

[13]腾讯研究院, 中国信通院互联网法律研究中心, 腾讯AI Lab, 腾讯开放平台.人工智能[M].北京:中国人民大学出版社, 2017.

[15]高奇琦.人工智能:驯服赛维坦[M].上海:上海交通大学出版社, 2018.

[20] 孟建柱.全面深化司法体制改革, 努力创造更高水平的社会主义司法文明[J].求是, 2017 (20) .

[22]松尾丰.人工智能狂潮:机器人会超越人类吗?[M].赵函宏, 高华彬, 译.北京:机械工业出版社, 2016.

[25]程凡卿.我国司法人工智能建设的问题与应对[J].东方法学, 2018 (3) .

[26]曹建峰.人工智能:机器歧视及应对之策[J].信息安全与通信保密, 2016 (12) .

[27]崔靖梓.算法歧视挑战下平等权保护的危机与应对[J].法律科学:西北政法大学学报, 2019 (3) .

[29]张富利, 郑海山.大数据时代人工智能辅助量刑问题研究[J].昆明理工大学学报:社会科学版, 2018 (6) .

[30]凯文·凯利.技术元素[M].张行舟, 余倩, 等译.北京:电子工业出版社, 2012.

[32]吴季松.人·人类·人工智能[M].北京:电子工业出版社, 2018.

1 约翰森堡、谢菲尔《大学算法教程》, 方存正、曹旻、华明译, 清华大学出版社2007年版, 第1页。有学者概括为输入、输出、确定性、可行性、有穷性5大特征, 参见江世宏编著《算法与数据结构》, 科学出版社2016年版, 第46页;汪荣贵、杨娟、薛丽霞编著《算法设计与应用》, 机械工业出版社2017年版, 第3页。

更多精彩尽在这里,详情点击:http://ycrh168.com/,希克