二、法的一般理论的全面继受(50年代至60年代初) 新中国成立后,开始全面以苏联模式为蓝本创建新中国高等法学教育。
也就是说,人民法院行使审判权,不是人民法院这个机构在审判,也不是法院的全体人员在审判,更不是行政科层式的机关首长负责,而是以一个个具体的合议庭、独任庭的方式完成的。( 二) 法院组织法 《人民法院组织法》属于宪法类的基本法律,是实施宪法规定的人民法院作为国家审判机关的具体组织形式。
中国集体主义的文化观念难容法官独立。这个在理论上缺乏基础、在法律上没有依据、在域外没有印证、在现实中释放负能量的中式命题,在各种颇具迷惑性的现象的掩护下,很大程度上强化了法官不独立的现实,阻碍了司法独立理论的发展创新。文章来源:《法律科学》2015年第1期。法官通过独任和合议制形式审理案件,只服从法律,而不应受到法院内部的其他法官的不正当的干涉。由于直接行使审判权的一线法官在法院内部的法官等级较低、行政级别不高,而行使审判监督权和审判管理权的通常都是法官等级较高、行政职务较高的人,这就不可避免地会出现将审判权从属于监督权和管理权的现象1。
地方各级人民法院对本级人民代表大会及其常务委员会负责并报告工作。这也是因为审判管理的主体不是法官本人,而是处于行政领导岗位的院庭长。然而,这些原则的针对性不强,规制精度不够。
(49)第二,有意的不同待遇实际上可通过间接证据证明,因为被告很少承认他们在决策过程中考虑了受保护群体的特征。我国国家网信办制定的《App违法违规收集使用个人信息行为认定方法(征求意见稿)》,明确了App强制授权、过度索权、超范围收集个人信息等行为的认定标准,这也有助于推动数据收集的民主化。第四,对高风险算法进行特定性规制。即使觉察到,也不容易举证。
这种方式主要通过对一些可能发生歧视的领域及可能构成歧视性的敏感因素作出明确的反歧视规定,以规范算法自动化决策中目标变量的使用,从而起到规制算法决策的作用。在具体的判决过程中,法院主要采用了分层审查,重点审查算法行为是否尊重了公民的平等权。
这种歧视类型源自计算机对过往数据的深度学习。需要强调的是,我们不能将敏感属性仅仅理解为明确包含类似种族、性别这样的字眼,而是要审查是否隐含这类歧视的敏感信息。从具体操作上讲,基础数据端的规制包括收集与选择退出两种机制。作者简介:郑智航,山东大学法学院教授,法学博士。
在差异性影响审查模式中,法院就强调商业必要性可以成为算法歧视免除责任的一项理由。因此,必须管控好算法决策程序设计的前端,并通过对算法基础数据(主要针对杀熟型歧视)和敏感因素(主要针对特征选择型歧视)等变量的限制,达到控制歧视性算法的目的。(18)此外,大数据分析与算法的自动化决策也需要遵循宪法第十四修正案的平等保护条款的要求。(31)欧盟《通用数据保护条例》规定了数据控制者的被遗忘权,即数据所有者或控制者有权要求数据使用者在基于特定目的使用完数据之后消除、抹除数据。
在格里格斯诉杜克电力公司案中,法院就认为杜克电力公司在有关就业的算法决策中所选取的变量与该公司所要实现的商业目的并无直接的相关性。这种结果性规制模式是一种事后性的处理,往往不会延伸到算法决策程序的前端。
2.他律性规制 各国政府早期出于保护市场自由竞争的考虑,较少对算法行为进行干预。为了加强算法歧视的自律性规制,美国计算机协会发布了关于算法透明度及可审查性的七项基本原则。
(62)Patel v.Zillow,Inc.,915 F.3d 446(7th Cir.2019). 进入专题: 大数据 算法歧视 。从历史上讲,这种模式是美国联邦最高法院在1973年麦克唐纳道格拉斯公司诉格林(McDonnell Douglas Corp.v.Green)案中创立的。例如,在员工管理过程中,很多企业就利用互联网上的数据来判断妇女是否符合工作需要,这给妇女造成了歧视。法院要求Zillow公司对算法进行解释,并且强调算法决策的过程是能被有效解释的。人们在线上交易过程中往往会形成浏览、收藏、下单、评价等记录。差异性影响主要依赖于群体证据而非个体证据。
⑩这种通过属性关联方式发生的歧视在外观上看来是客观中立的,因此具有很强的隐蔽性,难以为人们所辨识。例如,教育部门使用算法来决定是否对教师进行续聘。
在不同待遇审查模式中,法院会对算法使用者的主观意图进行重点审查,并要求原告提出证据来证明算法使用者存在明确的歧视性意图。③这在一定程度上能够克服人类决策的主观性,但是它也带来了更为复杂的、隐蔽的新型歧视。
(22)在审查与评估过程中,算法通过专家、公共机构和受算法决策影响的社区的代表等以数字签名方式成为待发行的版本,该版本算法才可以在一组实体之间共享或在公共站点上发布。因此,这些系统的设计者以及经常监督或控制系统设计的非技术利益相关者必须首先考虑到算法的监督和审查机制。
(50)第三,并不是在算法中只要出现刻板印象,就一定会将这类算法认定为存在歧视。(一)平衡数字鸿沟,揭开算法黑箱 算法决策的高技术性和不透明使决策相对人难以理解算法决策行为,从而在决策者与相对人之间形成了数字鸿沟。但是,民主化数据收集机制中也存在一些重大缺陷。这种歧视非常隐蔽,不易被人们察觉。
房主认为该网站使用的自动估价算法严重低估了其房产价值,造成其二手房几年内无法以合理价格售出。(19)2019年4月8日,欧盟委员会任命的人工智能高级别专家组发布了可信赖人工智能伦理指南的最终版本。
(三)两种审查模式的比较 算法差异性影响和不同待遇审查模式旨在实现不同的审查功能。第一,技术性脱敏(敏感性因素排除)。
差异性影响审查模式强调个体受到与受保护特定群体不成比例的不利影响是认定算法歧视的一个前提条件。例如布鲁纳(Peggy Bruner)就重点考察了威斯康星州诉卢米斯案(Wisconsin v.Loomis)中算法使用是否合乎宪法的基本要求。
无论算法的逻辑构架多么复杂,都必须由算法使用者作出正常人能够理解的说明。美国在《怀孕歧视法》和《就业年龄歧视法》中就从平等权的角度出发,认为这种做法违法了平等权的要求,应当禁止,(32)并规定用与互联网日常使用率相关的数据来判断工作绩效的算法是违法的。(34)这种政府规制模式主要着眼于歧视结果已经发生,即某种算法已经在社会中得到运用,并产生了歧视性影响,侵犯了公民平等权。根据这一概念,算法设计者在开发算法阶段应当接受第三方审查,从而发现算法可能存在的歧视和偏见。
(15)为了消除算法歧视给社会带来的影响,各国政府采取了一系列的规制措施。它强调一项算法决策产生了实害结果时会启动相应的救济措施,并由法院来进行司法审查。
我国2019年正式实施的《电子商务法》就对违反推荐算法规制的行为进行严厉惩罚。(二)预防性控制与结果性责任规制 从算法歧视可规制的阶段来看,它主要包括算法歧视的孕育阶段和实害阶段。
美国联邦贸易委员会从数据隐私和个人信息保护角度对算法歧视行为进行了规制。(三)大数据(算法)杀熟 大数据(算法)杀熟,也是大数据时代常见的一种隐蔽的算法歧视类型。
© 1996 - 2019 蜂拥而来网 版权所有联系我们
地址:王家园