第一文秘网    > 承揽合同

智能社会的治理与风险行政法的建构与证成

作者:jnscsh   时间:2021-07-19 08:46:35   浏览次数:

内容摘要:人工智能的成功将是史无前例的,但充满不确定性、失控性及全球化的风险却如影随形般威胁着人类社会。需要重构一个以多元、开放、分享为基本特征的风险治理体系,市场、社会及国家这三种治理机制循环往复,时而正向运动,时而反向运动,同时还包括国家内部的立法与行政、中央与地方之间的双向自循环系统,共同形成一个整体的四重双向治理生态。这给行政法实现从“秩序行政”“给付行政”到“风险行政”的转型提供了历史契机,以“风险”和“治理”为基石的“风险行政法”应运而生。

关键词:人工智能 风险治理 四重双向法律治理体系 风险行政法

中国分类号:DF3文献标识码:A文章编号:1674-4039-(2019)01-0068-83

引言

在农业社会,人们通过植物和动物认识世界;在工业社会,人们通过蒸汽机征服世界;在互联网时代,人们通过路由器连接世界;在人工智能时代,人们通过大数据和算法改造世界。就像望远镜让我们能够感受宇宙,显微镜让我们能够观测微生物一样,人工智能 〔1 〕正在改变我们的生活以及理解世界的方式。〔2 〕一次脱胎换骨式的重大时代转型正在开启,人工智能的发展不仅在生产和商业领域,而且在运输、医疗、救援、教育、金融、农业和司法等领域,起着提高效率、减少消耗、增强安全水平和提供更高质量的服务的作用。北京 〔3 〕、上海 〔4 〕及重庆 〔5 〕相继出台规范性文件来监管自动驾驶汽车的路测行为,机器开始正式出版诗集和画集,智能顾投已经替代人类完成一些复杂的金融交易,面部识别软件也开始运用到海关、火车站等场景的安全检查,甚至用于识别恐怖分子。

但脱胎于现代性的人工智能风险也如影随形般发生了,数据涉及的隐私权问题频发,年初支付宝年度账单默认勾选《芝麻服务协议》被质疑侵犯隐私权,百度涉嫌侵害消费者个人信息安全被江苏省消保委提起公益民事诉讼。而算法涉及的政治伦理问题也开始显现,特朗普团队利用数以千万的Facebook数据,通过挖掘算法使总统大选获胜;世界上首起UBER自动驾驶汽车公共道路致死案也在美国亚利桑那州发生。随着平台企业将人工智能的商业逻辑推向极致,大数据和算法潜在的风险和“创造性破坏”也必将随之爆发,国家主权、生产关系、社会结构及法律秩序等关键议题都面临着“颠覆式重构”。这集中体现为隐私与数据权、数据歧视、伦理与人格尊严、生态、就业、贫富两极化、国家能力及国家安全等系列问题。正如马斯克所说:“人类下一个生存威胁恐怕就是人工智能。对于人工智能应该在国际或者国家层面上有相应的监管措施,以防人类做出不可挽回的傻事来。” 〔6 〕

基于此,笔者主要讨论的是人工智能的风险以及人类的法律应对。一方面,以费雪的“行政宪制主义理论” 〔7 〕为依据,提炼出核心法律问题是“法治政府”在人工智能风险治理中的作用、性质及理想类型;另一方面,以波蘭尼的“双向运动理论” 〔8 〕和莱斯格的“代码2.0理论” 〔9 〕为依据,在“法律(政府)、市场、准则(社会规范)、架构(代码)”等机制之间构建人工智能风险的四重双向法律治理体系,“风险行政法”也许正是我们公法学人在新时代的新贡献。

一、人工智能风险的法律特征

生活在人工智能时代,不像是处在一辆被小心翼翼控制并熟练地驾驶着的汽车之中,更像是坐在朝向四方疾驰狂奔的不可驾驭的野马身上,胆战心惊,更不知道未来会发生什么。〔10 〕人工智能风险的本质正是现代性的后果,是一种人为的技术风险,不是自然带来的。由此产生的“社会可接受性”更是加剧了人类行为的不确定性,这种现代性风险既不分阶级,也不分国界,而且还是无处不在的。具体特征阐述如下:

(一)不确定性

在一个到处充斥着数据的“人工智能时代”,人类社会正在从“原子世界”向“比特世界”演进,不断演绎着“人是生而平等的,却无往不在枷锁之中”的事情,人工智能赋予了人类很大的自由,人类实践着空间维度的自由,甚至开始追求时间维度的自由,但过于泛滥的大数据却给予了人类太多的选择,能力有限的人类变得如同遇到洪水猛兽般不知所措。这就是未来社会的不可预测性,“被动自由”问题变得日益突出。这主要由以下原因导致:

第一,大数据的“全体性”“混杂性”及“相关性”必然带来的是风险的不确定性。在小数据时代,人们受限于技术,只能选择分析随机样本;但在大数据时代,收集与分析全样本是现实可行的。大数据中的“大”非绝对意义的大,而是指全数据;〔11 〕在小数据时代,由于数据量少,人们执迷于数据的精确性,而在大数据时代,人们开始追求大而全的数据,这种混杂性确保了大量数据的真正利用,人类从此打开了一扇未涉世界的窗户;〔12 〕在小数据时代,人们苛求因果关系,但在大数据时代,人们只追求相关关系,知道“是什么”就足够了,没必要知道“为什么”。〔13 〕

第二,算法的不可预见性也直接导致了风险的不确定性。拥有强大算法能力的人工智能决策系统则不同,它能够在短时间精确计算所有可能性的基础上,选择机器认为的最佳方案。而人工智能决策系统并不受预置的价值观念、经验法则、道德法制等因素的制约,它们很有可能做出人类根本不可能考虑的实施方案。这就是算法带来的不可预见性。由此,尽管人类制造了人工智能,但我们却无法预见到人工智能最终的决策选择。随着深度学习技术的进步,人工智能行为的不可预见性问题更加凸显,而且程度不断加深。一个具有自主学习能力的人工智能系统,实践中大数据的喂养使其愈发进化,使得最细心的制造者都没有办法控制或预测指数级升级的人工智能的决策过程及决策结果,这就是一个黑箱。〔14 〕

第三,架构的封闭性更加剧了风险的不确定性。网络“性质”并非由上帝的旨意来决定,而仅仅是由它的架构设计来决定。〔15 〕网络的架构既可以是开放分享式的,也可以是封闭控制式的。最初的万维网是开放分享式的,是一种去中心化的、没有等级制度的架构,但这种架构存在致命缺陷,即缺乏安全性标准。于是,平台企业的商业逻辑和国家的安全逻辑共同导致了封闭性网络的产生。少数巨头控制了资源的流动,通过集中式基础服务深入不同领域,形成半封闭的互联网领地;政府部门使用分口和属地管理方法,使互联网治理变得碎裂化。由此,一个背离早期互联网的封闭式网络就此形成,“门槛很高”的人工智能军备竞赛使中心化趋势愈演愈烈,“强者恒强”。

推荐访问:行政法 建构 治理 风险 智能


[智能社会的治理与风险行政法的建构与证成]相关文章