查看原文
其他

龙卫球:人工智能立法的“技术—社会+经济”范式 | 武大学报(哲社版)202001

【副标题】基于引领法律与科技新型关系的视角

【作者】龙卫球(北京航空航天大学法学院教授、博士生导师,法学博士,教育部长江学者特聘教授)

【来源】北大法宝法学期刊库《武汉大学学报(哲学社会科学版)》2020年第1期(文末附本期期刊法学要目)。因篇幅较长,已略去原文注释。



内容提要:人工智能立法应以立法范式转型引领科技立法进入新时代。这一转型是对近代以来科技立法形成的“技术—经济”范式的重大超越。既有科技立法范式,简单强调经济主义的单一维度,虽然两三百年以来成功地刺激了科技应用和经济增长,但是现在明显具有很大的不适应性。一方面,这种过度经济主义模式本身导致了对科技社会性的忽视,引发越来越严重的科技与社会风险;另一方面,正在兴起的人工智能科技具有前所未有的强社会面相,它的巨大颠覆潜力和认知能力等特性,使得其应用面临着复杂而迫切的社会规范要求,特别是引发了对人的价值性的关切,因此应该向“技术—社会+经济”新范式转变,以经济性、社会性的双重架构以及相应的四项原则等,来推进对人工智能的合理规范。

关键词:人工智能立法;科技立法;“技术—经济”范式;“技术—社会+经济”范式;自主化技术;人的价值性;人工智能伦理


法律与科技自近代以来存在紧密的联系,人类基于对于科技作用的重视,自近代起设立了专门以科技作为规范事项的科技法。但是,我们可能注意到一个有关科技法的事实,那就是在其得以兴起和发展的过去两三百年间,科技法一直秉持的是一种“技术—经济”的立法范式,就是说关注的主要只是技术的经济规范意义。这种立法模式与人类关于科技的长期以来占主流地位的思维是一致的,即技术经济主义。这种思维对于科技的认知倾向是“,仅仅以经济学和经济史的术语来对待这一问题”。即,技术主要作为具有巨大经济意义的工业革命的推动要素而受重视。随着人类对技术经济意义追求不断升级,甚至引发了对于技术的膜拜,促成一种技术统治乃至技术垄断的技术意识形态后果。


 一
问题的提出:人工智能时代科技立法范式转型的背景

  人工智能因机器学习等新方法和新技术的突破,成为当前最引人关注的新科技主题之一。人工智能科技最新和未来一个时期发展的意义,首先是其被认识到正在取得主导科技的地位,在技术和经济维度上形成了巨大的迭代力量,具有极端颠覆性的经济应用前景,由此不断引发投资风暴。其次,则是它引起了作为新兴科技事物正在产生前所未有的社会关注。人们开始意识到,它的发展影响不应该仅仅是技术经济的,更应该是社会的。对人工智能的这种社会关注,有积极方面的期待。计算社会学、人工智能化社会理论正在揭示新社会发展和建构的可能性:例如,通过新计算方法和人工智能,可以发展更好测量世界的全新思维工具;通过引入不断升级的智能化,可以使得世界互联、万物互联、人机互动关系更加娴熟。这些使得进行大规模社会协作成为可能,社会共享、社会合作的前景诱人。总之,在人工智能和新计算方法之下,社会智能化发展方兴未艾,一个“超级全球化”时代似乎就在眼前。


  但目前人们对于人工智能的社会关切,更多还是消极方面的忧虑。首先是人类的适应性问题。美国科技社会思想家兰登·温纳早前指出,当代新技术领域的发展,其导致的现代社会日益增长的复杂性和快速变化,超出了个人和社会形态的适应能力,“与社会技术系统日益增长的复杂性合在一起,这些变化使得人们越来越难已开展当代社会生活中某些最为基本的活动:规划、设计,以及功能上的协调合作”。其次则是科技自身风险及科技简单经济化引发的社会风险问题。风险理论家贝克便关注到,在当前发达科技条件下,一方面,令人担忧的生态风险和高科技风险不断具备新的特点,导致不可计算的威胁的后果;另一方面,在所谓现代性之中,还出现了财富的社会化生产与风险的社会化系统相伴的情况。“相应地,稀缺社会的分配问题和分配冲突,也同科技引发的风险在生产、界定及分配过程中产生的问题和冲突叠合在一起”“换言之,在风险社会中,未知的、意图之外的后果成了历史和社会的主宰力量”。就人工智能来说,其对社会的影响尤为重大和特殊。人工智能技术新发展,由于对计算方法极为推崇,导致了一种“计算主义”新思潮,似乎世界不过是计算或信息流构成的。这种信息简化主义世界观,引发了有识之士对“技术致死”的忧惧:如果我们的道德、伦理和公共事务等问题被所谓的技术重构,变得这样简单可控,那么世界究竟会变成什么样?此外,人工智能基于它在认知能力上的发展而具有与人的相通性,还带来了棘手的重新塑造“人与人造物关系”的全新课题。


  人工智能鉴于其科技事项属性,从立法归属而言,自然应该纳入科技立法的特别范畴。由上可知,人工智能作为正逢其时的技术新领域,其发展可能带来经济迭代福利的同时,也正在产生社会正反方面的巨大效应,因此从立法上来说必然导致更加复杂的要求。人工智能最新和未来发展具有的经济和社会的双重影响,使得既有科技立法的所谓“技术—经济”范式明显具有不适应性。本文提出,人工智能立法范式具有由传统科技立法的“技术—经济”范式转向“技术—社会+经济”范式,实是势所必然。本文拟就这种转型的历史规律进行观察和分析,并试图在此基础上探究新范式的基础、内涵及其开展。


 二
科技立法“技术—经济”传统范式的流变及其规范原理

  科技立法专门化的最初基础是人类对于科技在经济上重要性的发现。科技具有经济的重要性不等于就会产生科技立法,只有当技术发展到一定阶段、人们形成了关于其重要性的认识,科技立法才会水到渠成,科技事项才会成为相对独立的规范对象。


  技术的重要性对于人类来说不言而喻。近代开始,人文理性主义的意识崛起,科学意识也随之觉醒,人类技术开始与科学思维与方法紧密相关,从而由单纯的技术发展为科技。这一时期,科学、科技先是作为人文理性主义的演绎产物得到发展,但很快就喧宾夺主,成为人文理性的替代形态而得到高举。这种倾向在笛卡尔那里就有了端倪,这位17世纪的欧洲哲学家和科学家,倡导科学主义,提出了一种普遍怀疑的哲学主张,因此被誉为“近代科学的始祖”。渐渐地,科学主义思想占据统治地位,理性主义几乎等于科学主义。与此同时,英国的亚当·斯密等在理性主义的基础上,提出了初始的自由市场理论,很快推动了市场经济实践。于是,在科学主义和市场主义的结合下,英国不仅最早出现了科技的发明自觉,而且因为市场需要,科技发明的经济重要性也很快被认识到,于是导致了科技发明的勃发,而为了鼓励这种科技发明的自觉以及确保其市场经济效应的发挥,英国生发了相应的科技立法自觉,最早的科技法产生了,其形态就是鼓励科技发明及其经济利用的专利法——通过授予发明人以专利权和相关的财产、人身利益,以便极大地刺激和鼓励科技发明和经济应用。一批直接与现实经济需要密切相关的新发明应运而生,包括纺织机、蒸汽机等,它们在专利法的保障下发挥巨大的经济潜力,支持英国最早开展工业革命,成为最早的工业强国。人类的科技立法也由此滚滚向前。


  科技立法这种基于科学主义和经济主义结合的产物,顺理成章地导致了此后“技术—经济”的立法范式的形成和不断升级。一开始,二者之间是一种完全市场式的结合。立法者通过采取授予专利权等科技产权、确立有限责任公司等适合科技产业化规模风险经营的组织形态等市场化激励方式,对于科技发明和应用加以刺激。专利制度和公司制度先从英国兴起,后逐渐发展到美国、德国等国家,形成了科技立法国际发展的第一轮高潮。在“技术—经济”范式鼓励下,工业企业为了追求更加先进的科技产业利益,开始成立专门的工业实验室进行有组织的科技研究,导致了大量工业发明出现。到19世纪中叶,除了传统的煤炭、纺织业,电气、化工等新的科技领域得到突破,进而促成了新科技产业的出现和繁荣。19世纪80年代以后,由于科技垄断带来的竞争优势,在石油、采煤、榨油、烟草、制糖等部门出现了卡特尔、康采恩或托拉斯组织,这些不断崛起的大型企业联合,具有经济集中的优势,这种情况受到主流地位的自由市场理论抨击,导致了旨在维护市场公平竞争的反垄断法的出台。但是,反垄断法却产生了更加促进有组织的工业研究的效果,因为大型企业只有不断做出新领域的科技发明,才能够避免陷入专一技术经营形成的垄断。这种竞争利益虽然表面上看具有一定的社会性,被誉为社会经济利益,但是本质上仍然是市场经济利益,因为旨在保护市场竞争。从这个意义上说,科技立法的“技术—经济”模式不断在得到深化。


  科技立法的“技术—经济”范式在20世纪中叶,被以一种强化国家干预科技进步和转化的方式,推进到一个新阶段。20世纪三四十年代,各国基于二战的需要,集中科技资源备战,强化有组织的攻关研究,旨在保障和促进对于战时工业经济特别是军工有优先支持作用的科技的发展和竞争。为此,各国政府纷纷引入科技与产业结合的干预政策,此即科技政策。例如,美国成立了国防研究委员会,组织科技资源以增强国防能力,后来建立科学研究和发展局。二战后,各国有的以战后恢复和重建为需要,有的以提升国家竞争力和促进产业升级为目标,继续干预科技发展,以促进科技在期待的领域进步、转化和创新。20世纪50年代,通过科技政策机制,大力投资基础研究和高等教育,重建和发展打造知识资源和人力资源的基础,并且着力电子、石化、原子能等新技术领域的科技创新和转化,形成了新一轮科技产业化。原先以市场自由主义为基础的“技术—经济”模式,调整为以国家科技政策为基础的干预式“技术—经济”模式。这种情况持续到60年代经济复苏之后,才开始向科技的市场自由化做调整,科技政策也开始关注市场需求;到80年代,更加强调科技资源供应和市场需求的结合,导致在微电子、生物技术和新材料等新领域又形成新一轮“技术—经济”高峰。20世纪初,面对新一轮科技大发展的机遇期,各国为了快速提升和确保国家竞争力,更是大力推进科技创新政策,甚至上升到推行科技创新战略的高度。


  这里需要提到,中国在历史上由于种种原因,近代以来处于科技发展的被动局面,并与工业革命失之交臂,因此长期以来都处于科技落后状态,科技立法自然也是缺席的。1949年新中国建政后,动用国家体制力量,集中科技资源,就一些急需重大战略科研进行了攻关,但科技发展和工业发展总体较为薄弱。20世纪70年代末开始,中国启动经济体制改革,提出“科技是第一生产力”论断,以经济建设为中心,并毫不迟疑引入“技术—经济”模式,采取国家干预和市场发展相结合,强化科技政策作用,确立了“经济建设必须依靠科学技术、科学技术工作必须面向经济建设”的科技服务于经济的方针,并以此启动科技体制改革,全面助力经济体制改革。此后,还先后制定了《科学技术进步法》和《促进科技成果转化法》。之后,科技政策不断升级,经历了1995年实施“科教兴国”战略、加强国家创新体系建设和2006年“自主创新战略”、增强自主创新能力的两次提升。


  科技立法基于“技术—经济”范式,其规范原理归纳起来有四个方面:其一,坚持科技立法的专门化,形成了科技立法体系,逐渐形成科技市场法、科技风险法(主要是应对科技应用导致的工业风险、事故安全和特殊科技安全)、科技政策法三大具体领域。其二,主要以鼓励、刺激科技的经济实用价值为目标。最典型的是不断发展和完善专利法、技术合同以及其他技术市场制度。其三,基于不同时期的政治经济环境,灵活运用市场原则和国家干预原则。总体上早期以市场自由为主,到了后来逐渐重视国家干预,不断出台自上而下的促进科技进步、转化和创新的政策机制,20世纪中叶达到顶峰,之后又逐渐回调,目前处于平衡状态。其四,科技立法在“技术—经济”范式下,对于科技社会问题并非完全弃之不顾,但在规范上是附带的,而且很多是为了减缓贯彻科技经济主义的社会后果。最早大概从19世纪开始,通过劳工运动,与当时科技应用相关的工业风险和劳动安全开始得到关注。英国政府于1802年推出第一部《工厂法》,提出了工厂生产安全的早期规范要求,到了1860年代相关立法保护范围扩大到“有雇佣劳动的任何地方”,旨在适当改善被雇佣者的境遇。其他国家也陆续发展这种工厂法和劳工保护法规。这是早期科技立法的微弱社会性的一些体现。20世纪80年代之后,各种科技社会问题的不断爆发,加上越来越多的社会运动的压力,科技立法才加速纳入科技社会问题的进程。具体体现为:工厂法、劳工保护法、工业事故法等进一步社会化。除了上述部分,国际社会也开始关注环境和生态保护,以及特殊科技安全如核安全等,但是总体上仍然处于边缘位置。


 三
科技立法“技术—经济”范式下的社会问题及其自主化技术后果

  科技立法强调科技经济意义实际上是强调一种效率导向,这一点本身无可非议。人类在很长的一个时期内需要加强的确实就是自己的经济生存能力问题,从功利主义的角度来说,让人类具备吃饱穿暖的能力,这大概应该成为一条底线。很多经典学者对于国家意义的讨论,很大一个基点就是经济生存问题,所以就有了财产权设计的原初正当性。例如,洛克就认为,个人权利应该是从父权和财产权共同起源的,政府作为一种可以使得财产的自然状态变成受保护的权利状态的方式受到人们欢迎,所以才有了政府的必要,才有了政治社会和公民国家。康德也认为,对财产利益的保护是最初核心的诱导性因素,它引领处于自然状态的人们走向联合并形成政府或市民社会。科技是人类自身可以创造的具备提升经济能力的事物,所以在促进经济意义上得到利用、受到重视,应该说是顺理成章的。但科技具有经济意义本身,并不等于科技仅仅具有经济意义,或者说我们对于科技的关注唯其经济意义即可。科技活动及其立法的“技术—经济”范式的问题正在于此,简单片面地强调对于科技经济意义的追求,而忽视科技具有的其他方面的意义,甚至为了科技的经济意义而不顾其他的后果。这种科技活动及其立法范式,在这二三百年的实践中,带来了许多负面的后果。


  科技活动及其立法的“技术—经济”范式,使得技术的社会性基本被忽略,引发甚至诱发许多社会问题包括社会政治问题。它通过与资本的结盟,在工业革命初期导致的社会灾害问题就已经凸显,比如说工业事故、劳动安全以及严重的社会不公平问题。这些也导致了社会的不安定,损害了社会团结。技术经济主义,进而也会导致从技术支配经济到技术支配人的问题。卡尔·马克思在《资本论》中,深刻揭示了这种资本倚重工业技术的经济主义单边结构,不断导致社会分化乃至社会关系异化,从而导致资本家或企业主与工人的对立关系。工人的主体性,被资本作用下的“技术—经济”架构以及资本家经济利益单边结构所支配。这是非常可怕的,使得资本主义社会长期陷入对抗之中而不能自拔。技术经济主义,也促成了国家之间的恶性竞争和极差,导致了欧洲国家之间的多次争霸,导致了技术先进国家对技术落后国家的技术支配和殖民,恶化国际社会关系。建立在技术经济主义基础上的政治秩序,无论国内还是国际,一直以来都处于恶性的竞争格局之中,虽然在每次剧烈冲突之后都有所调整和节制,但是总体上并不能有效控制,更谈不上消除问题。到今天为止,世界仍然处于一种基于科技逐利的、通过科技极差压制掠夺他国的极为互不信任的关系之中。正在进行的中美贸易战就是一个典型例子。技术经济主义,还使得其不能及时回应科技及其应用引发的不断升级的环境和安全问题。工业革命以来,科技立法对于环境破坏问题长期处于沉默状态,直到20世纪60年代在环境社会运动的压力下,才逐渐将环境保护问题提上议程,但直到今天这个问题解决起来其实还很困难,包括开展环境治理的国际合作十分不易。工业革命以来,科技发展的安全和威胁问题,也一直处于边缘位置,直到20世纪中叶,当航空航天科技、核技术、生化技术等对人类生存构成严重威胁时,相关议题才进入视野。


  科技活动及其“技术—经济”立法范式,其产生的最根本上威胁人类自身存在价值的一种后果,是技术结构的自主性滋长。技术在一种自主性结构逻辑里面为所欲为,进而发展为失去人的控制的主体化僭越。雅克·埃吕尔将这种技术失去控制的情况,称为“自主化技术”后果,即“技术已经成为自主的;它已经塑造了一个技术无孔不入的世界,这个世界遵从技术自身的规律,并已抛弃了所有的传统”。自主化技术后果,首先对于个人的自主性具有致命的威胁。海德格尔就此描述说“:人都将比以往更紧密被技术力量包围。这些力量,它们要求、束缚、拖曳、逼迫和强制着,将人置于这样或那样的技术发明形式的控制之下——这些力量……自从超越他的意志以来已经走了很远,他的决策能力已经落后了。”自主化技术的后果,对于人类文化自主性形成压制,最终促成技术统治乃至技术垄断。美国学者尼尔·波斯曼在《技术垄断》一书中提出,人类技术文明以来可以划分为三个时代,即工具时代、技术统治时代和技术垄断时代。人类直到17 世纪,都是处于工具时代,技术成为人类自身文化的工具;进入工业革命之后,技术地位不断上升,逐渐取得统治权,开启技术统治时代,对人类文化产生了极大的改造效应,虽然表面上促进了平等和自由,但也出现了产业化和科技竞争的狂热;今天则开始进入技术垄断时代,文化向技术投降,技术几乎要彻底垄断人类文化观。


 四
人工智能立法“技术—社会+经济”新范式的基础及其开展

  人工智能科技作为第四次工业革命引燃的新科技之一,是以机器学习算法(如人工神经网络和深度学习方法)和自动发现技术为基础的,这些技术让智能的机器人与计算机获得认知能力,可以通过设计实现自我编程,形成从基本原理中找到最佳解决方案的能力。现在应用的领域突飞猛进,从智能助手向环境智能急速转进。前者,包括人机交谈(如苹果公司的Siri语音服务)、文字输入预测、归纳文本信息、诊断疾病、选择推送广告、搜索算法(谷歌)、翻译软件、智能法务等;后者,则包括正在开发或不断改进的作为单体使用的无人机、无人驾驶汽车、警务机器人、伙伴机器人等,也包括作为提供管理和服务的智慧交通管理平台、智慧城市管理平台、司法服务自助和分发平台等。


  (一)人工智能科技的“强社会面相”与立法范式转变基础


  世界经济论坛创始人施瓦布提出,要关注科技革新或工业革命可能导致负外部性,即对于社会的损害或威胁。他认为,此前的第三次工业革命,虽然取得了巨大的发展,但是在科技竞争、经济一体化和全球化的情势下,却付出了损害自然环境、弱势群体等沉重代价,而以人工智能等新科技为表征的第四次工业革命如果不想重蹈覆辙,那么最好是要管理好这种外部性效应,防范和避免科技应用的意外后果、变革成本、二级影响以及蓄意滥用的伤害等。


  人工智能发展基于其科技特点以及极具颠覆性的经济应用潜能,如果不提前应对和防范,其可能带来的社会负外部性,毫无疑问会比既有的任何科技都更加复杂和严重。人工智能科技作为新兴科技,自身在应用上具有许多其他科技无法比拟的迭代效应,存在巨大的应用场景和产业化空间,此外还具有渗透其他几乎所有领域的效用,即通过“人工智能+”方式,可以放大其他领域的效用。这是积极方面的。但是消极面来讲,如果处理不好,也会带来许多可能意想不到的负外部性后果,包括甚至放大其他领域的社会问题。因此需要预先布局,提前做好化解和应对,以避免贪功冒进、陷入社会危机。已经有不少人工智能社会学家对之做出了严肃的关注和研究,并且做出了许多中肯的揭示或预测。中国政府2017年7月8日发布《新一代人工智能发展规划》也关注了人工智能发展的不确定性带来新挑战,提出“人工智能是影响面广的颠覆性技术,可能带来改变就业结构、冲击法律与社会伦理、侵犯个人隐私、挑战国际关系准则等问题,将对政府管理、经济安全和社会稳定乃至全球治理产生深远影响。在大力发展人工智能的同时,必须高度重视可能带来的安全风险挑战,加强前瞻预防与约束引导,最大限度降低风险,确保人工智能安全、可靠、可控发展”。


  首先,人工智能发展可能带来的负外部性,许多是整体性或共同性的。主要体现为两个方面,即可能引发系统的社会公平和平等问题,以及可能引发社会安全和风险问题。其一,人工智能基于其应用可能导致社会不公平、不平等,主要是因为人工智能作为一种更具颠覆性的技术,容易使得先用者取得一种科技极差优势和事实上的科技垄断优势。从而,不仅会使得财富和福祉分配不公平,甚至导致赢者通吃的吸利效应,使得后用者或者各种原因被排除在人工智能技术之外的人,特别是利益相关者,成为新技术的弱势群体,进而成为社会弱势群体。一般而言,最大的受益者应该是科技创造者、投资人、股东,以及控制了作为人工智能运行基础的数据的为数不多的大平台;而具体的劳动者、消费者甚至一般生产者等则容易沦为不幸者。其中,劳动力市场公平问题目前最令人关注。面对人工智能可能带来的产业消失、从业人口减少和为释放出来的劳动力寻找出路,该如何缩短转型周期,是摆在政府面前的一个现实命题。人工智能将导致传统劳动力的大量失业,合理安排、疏导或是通过培训再次利用这些劳动力,将是对政府的重大考验。但在另一方面,人工智能人才短缺又成为制约人工智能产业发展的短板。所以,劳动力体制改革已经是迫在眉睫。2016年12月奥巴马政府出台《人工智能、自动化和经济》报告,便涉及培养人工智能人才和同时解决劳动力失业难题两个方面。欧盟委员会发布了2018《关于人工智能的通讯》,也关注了自动化、机器人和AI的出现正在改变劳动力市场,提出现阶段做出量化的评估还不具备条件,但欧盟必须为此变革做好准备。中国2017年《新一代人工智能发展规划》在保障措施部分的第五点提到,大力发展劳动力培训,但目前这方面的举措还有待实化和明确。其二,人工智能基于应用特别是滥用,比以往许多科技都可能更容易使得社会陷入不安全或巨大风险。这是因为,人工智能的研发和应用,无论从系统稳定、功能还是应对复杂社会环境、防范人为滥用或者破坏等来讲,都具有更加的不确定性。广义上的社会风险,还包括人们对于人工智能时代的不适应性。因为人工智能带来的变化速度,可能已经超出了人类基因选择和文化选择的适应能力。中国《新一代人工智能发展规划》第一部分的总体部署,提到了人工智能发展与风险防范的并举要求,即“把握人工智能技术属性和社会属性高度融合的特征。既要加大人工智能研发和应用力度,最大程度发挥人工智能潜力;又要预判人工智能的挑战,协调产业政策、创新政策与社会政策,实现激励发展与合理规制的协调,最大限度防范风险”。


  其次,人工智能可能的负外部性,更多是具体的,体现在人工智能特定化的具体应用场景。所以,场景细分研究很重要。例如,在人工智能决策领域,可能导致的负效应就包括问责不合理、引发失业、诱发网络入侵和网络犯罪、缺乏责任义务、决策过程不透明或难以理解、加剧该领域的不平等、违反算法合理、对人性化形成根本威胁等;在人工智能替代白领工作领域可能导致的负效应,主要包括失业、问责和义务不合理、法律财务信息披露风险加剧、工作自动化等;在人工智能服务领域,其负效应则可能有失业、责任和义务不合理、向全天候服务转变、诱发黑客和网络安全风险等。具体场景中,至于无人机、自动驾驶汽车、警务机器人、自动致命武器等则更加复杂,正处于热议之中,目前的研究似乎离形成清晰化认识还有很大差距。限于篇幅,这里不予赘述。


  上面这些社会问题,还不是人工智能科技最复杂的消极问题。人工智能新科技与其他许多科技有一个很不同的特点,就是它是一种以认知能力为基础的技术,为此是具有与人相通的特点,因此引发极强的伦理关切。在应用面向上说,这种与人的相通性可能带来不可估量的潜在效用,能够替代人类发挥智慧作用,可以想象,从经济增进上来说功效可期,厚利在望。但是,它以与人相通性,以及以人机互动或者对人的替代作为效用设计的特点,也可能导致对人的混淆甚至取代的后果。由此,引发令人困惑的人与人造物的关系难题,导致人自身存在的危机感,这是前所未有的问题。第四次工业革命的新科技之中,能与人工智能科技对人自身形成威胁近似的,还有生物科技、神经科技。以生物科技为例,生物技术经过过去20年的发展,在数字技术和新材料的支持下,基因组、基因工程、诊断学、制药开发等方面都取得了质的飞跃,出现了能够改变生物系统的技术或生物设计技术,在DNA测序、DNA合成等DNA操纵下,转基因植物技术、干细胞技术、克隆技术、胚胎技术、基因治理技术、基因编程技术等可谓层出不穷,这些对于生物工程、精密医学、农业、环境、人体健康等显然具有极大的应用价值,但是它们同时带来了对于人本的威胁,因为极有可能改变人之为人的原样,所以也引发了极为深刻的人本主义观念下的伦理和安全危机。神经科技,也有类似之忧。这个伦理性问题不好处理,值得加强研究,要尽快拿出可以确信的兼顾伦理设计的方案来。我们固然不能过于保守地处理人工智能带来的“人的危机”问题,但是引入必要的监管设计应该不可避免。遗憾的是,目前各国和有关国际组织虽然在倡导一些人工智能伦理标准,包括所谓机器人安全原则,但还没有形成总括性的行之有效的全球标准。


  人工智能科技在“技术—经济”模式下可能形成的负效应,可以归结为人工智能的科技社会风险。科技如果仅在经济主义的刺激下,作为改善物质需求发展和应用,脱离对社会价值的考量,那就必定会使技术与社会严重脱节,导致严重的社会风险,广义上包括对人自身的风险。自近代以来,科技风险概念就以特殊的形态不断升级,这都与所谓科技现代化采取单边经济主义相关。风险社会理论家贝克称之为“工业社会的自反性”或“自反性现代化”。即,“生产力在现代化进程中的指数式增长,使风险和潜在自我威胁的释放达到了前所未有的程度”“在工业社会中,财富生产的‘逻辑’支配风险生产的‘逻辑’”“从现代化进程自反性角度来看,生产力丧失了其清白无辜的面目。技术—经济‘进步’带来的力量,日益为风险生产的阴影所笼罩。”科技社会风险演进到今天,早已不再是从前的潜在的副作用,而是达到极端泛滥或突变的程度;这种风险也显然不同于19世纪20世纪上半叶的工厂或职业危机,而是成为对于自然界和人类自身包括生命重大威胁,且成为跨越国界和族群的全球性危害。


  人工智能科技的强社会面相,也体现在其积极方面的协同需要。人工智能无论从研发还是应用,都包含了巨大的共享和协同需求,同时也蕴含了巨大的共享和协同价值,还暗含新时代的普惠追求。因此,人工智能无论是其自身的研发、应用,还是对于其他领域的渗透,都高度依赖于协同性的资源配置安排或者运行合作。人工智能开发和应用需要的协同,包括基础方面的协同,例如数据协同、平台协同、管理协同,也包括具体应用功能和主体的协同,还包括人机协同等等。这些甚至要落到具体行为、管理、权利、义务、责任的协同上来,导致人工智能相关的权力、职责、权利、义务、责任等不会简单地像既有范式那样去设计,而是需要基于协同的要求做出必要合理的变化。仅以数据资源为例,人工智能的开发和应用,离不开大数据集聚和及时更新,数据越丰富越动态就越好,因此有必要通过设计为人工智能开发者创造合理获取数据的机会,除了尽可能开放可公开资源之外,也需要为人工智能开发者提供在具体场景中动态获取必要数据的便利。但是这些会与数据管理、数据权属、个人信息保护等既有法律秩序产生冲突,因此需要进行巧妙的协同设计,实现双赢,以便最终使得协同成为可能并且圆满。目前,存在一种因关注共享而完全否认数据权属化的观点,笔者认为这种观点对于共享设计架构有简单化嫌疑,难以提供合理的主体间数据合作的根源和动力。基于人工智能的信任机制也很重要,应当配合协同需要完善相应的信任机制。马克·格兰诺维特在《社会与经济:信任、权力和制度》一书中提到,个人行为虽然存在自利和受规则与价值体系影响之间的微妙关系,但信任和权力也会潜移默化地塑造个人的心智结构,所以信任也是个人行为非常重要的社会因素。人工智能的信任机制体现在许多方面,但往往是具体场景化的,例如在人工智能决策领域,理性的数据驱动,决策过程的透明、可理解以及决策可问责等,大概都具有增进信任的功效。目前人工智能自动驾驶汽车行业比较注重在关键点上、如隐私问题,通过宣示自律措施确立信任机制。


  总之,人工智能科技以一种强社会面相,展示了前所未有的社会规范需求性,这既是科技经济主义发展到今天,导致科技应用势必陷入极大风险的警示结果,也是人工智能科技自身发展到现阶段,需要更加特殊的社会协作和信任机制加以支持的要求使然。可见,人工智能科技立法作为科技立法发展到当下的特殊新领域,其转型势在必行。由上述论证逻辑可知,应当超越既有科技立法的“技术—经济”范式,而以兼顾社会的新面相,跨入“经济—社会+经济”的新阶段。


  (二)人工智能立法“技术—社会+经济”新范式的开展


  人工智能立法的新范式,以技术社会性的兼顾,从架构上总体上需要坚持两重性。一方面,仍然致力促进人工智能科技的经济意义。人类在很长一个时期之内,需要通过科技提升自己的经济能力,这本身并没有错。只要在我们的世界还存在物质短缺或财富增长的需求,那么科技的经济效应就值得我们追求。我们今天还没有到可以摒弃科技经济效用的时候,只是不宜取经济主义而单兵冒进,而是应予制度创新,兼顾必要的社会性以有所节制。何况,目前阶段,人工智能科技只是形成了巨大的潜力,还有重要的技术突破和扩展时期,从经济意义特别是国家处于机遇期需要提升竞争力上说,还存在一个极具关键的需要鼓励和引导期间。当然,不同国家或不同阶段存在差异性,导致经济需求的迫切程度、正当化程度会有所不同。例如,发达国家经历二三百年工业化的经济主义追求之后,经济增长进入了一个新的阶段,而发展中国家却仍然有不少还挣扎在贫困线上。这恐怕也是国际社会要就科技事项进行平衡规范,难以取得合作共识的原因之一。另一方面,必须引入和提升人工智能科技社会规范。这是极为急迫而重要的。对应社会积极和消极的规范需求,体现为两大方面。一是积极的人工智能科技社会规范,重点是其合理研发和应用需要的社会协作、信任的规范体系建设。二是消极的人工智能科技社会规范,重点是如何防范和应对前述人工智能可能带来的社会问题。这一部分其实就是人工智能科技及社会风险立法范畴。通过加强并且系统化防范和治理的方式,达成风险可控。按照贝克的说法,就是要将过去稀缺社会的财富分配逻辑,向发达现代性的风险分配逻辑转变,或者说从财富生产支配风险生产的逻辑,转变为风险控制支配财富生产的逻辑。


  人工智能立法新范式的两重性布局,应以全新的价值观和更加合理的原则体系作为基础。鉴于人工智能的巨大科技风险,特别是基于其具有与人相通的认知能力,对于人本身构成了混淆或者替代威胁。一种正在成为主流的声音认为,关于人工智能立法的价值基础,需要提升一个高度,即应从最基本的人本主义来思考,以人的基本安全为底线,提出人与人工智能这种特殊人造物(也可以是打引号的“人造人”)的最低关系准则。学者和机构将之称为人工智能和机器人应用的基本伦理框架,作为人工智能规范和政策的最高指导。当然,也有还在观望之中的。坚持人的价值观的重点是,坚持人的价值的原初本体性,坚持人工智能的价值与人的价值一致性,在二者发生冲突时以人的价值为优先。《联合国世界人权宣言》和一系列相关文本宣示的,是人的价值的重要国际规范来源,但人的价值性应该不限于此。这也是第四次工业革命的新价值观。施瓦布研究第四次工业革命的实践时,呼吁要“确保对第四次工业革命由人类主导、以人文本。技术的开发必须尊重人类价值观本身,而不是只考虑经济价值。此外,以人为本意味着赋能于人,而不是支配人类的命运”。


  虽然在人工智能立法的价值体系中,人的价值观居于最高位阶,但还存在对于其他功能性或类型化价值追求。比如,从人工智能作为科技自身角度的促进科技创新与竞争力的价值,从经济角度的提升生产力和经济效率的价值,从社会意义角度的维护社会基本公平与安全的价值等等。这些价值之间存在平衡关系,发生冲突时,社会价值应该具有优先适用性。但是,这些功能性价值,最终要服从于居于上位的人的价值,后者具有终极性、本位性和优先性。另外,仅从人工智能的社会价值角度,笔者认为,广义上至少包括伦理、安全、公平、包容四个方面,它们之间存在交叉重叠。其中,伦理既包括关于人的尊严,也包括一般社会伦理。目前,除了关注人的混淆和替代之外,重点关注的还有使用人工智能导致过度监控问题、全景智能问题等。安全,既包括个人及人类的安全,也包括社会安全。公平,指社会不同人之间出现的机会或利益极差的情况;包容,则指平等、开放对待别人,歧视是其重要反例。此外,我国《新一代人工智能发展规划》强调的社会价值,还包括人工智能对于社会建设的功能在内。


  人工智能立法的上述价值观,应当通过一系列原则在人工智能的内在架构中予以进一步贯彻。这些原则成为全部规则设计和体系解释的原理基础。基于上述价值的逻辑展开,最少可以包括:其一,坚持维护人的尊严的原则。这是由坚持人的价值性推论出来的,毫无疑问是最主要的原则。其二,坚持技术创新、经济效率和社会保护一体化原则。人工智能立法应该做到三个功能价值的协调。目前的重点是矫正既往科技立法的惯习,重点对前两项功能有所限制,以彰显必要的社会保护。其三,坚持科技风险和监管一体化原则,或者叫科技风险和安全防范一体化原则。越是风险系数高的科技开发和应用,越应当增加风险的监管强度。如果应用于权力和责任更加重要的职位或情形,就应该引入更严格的监管甚至控制。鉴于人工智能存在较高风险性,今后还会发展为极高,因此有必要建立与其风险级别相应的确保其安全可靠的监管体系,包括引入与风险相适应的监管系统和方法。比如说,划分不同主体或产品风险等级,进行相应资质管理;引入风险监测体系,进行相应的监测、预警或应急管理;建立内外结合互动的安全管理体系;引入利益相关者决策和反映程序等等。其四,坚持行为治理和技术治理协同的原则。人工智能作为一种复杂技术,其治理与对于一般的行为治理不同,存在技术专业化的特殊性,从科学的角度来说,除了通常法律的行为治理模式,应当针对技术架构的特点引入技术治理。例如,为了达到更好地贯彻价值的效果,应当在人工智能设计环节就为技术赋予价值观,把必要的人本要求、社会需要预先嵌入进去,使其成为“价值—技术”“社会—技术”系统。现在我们见到的“隐私设计保护”就有这种妙用。在重大决策、执法(警务机器人)或者致命效应(自动化致命武器)的人工智能系统设计中,安全技术同步设计、价值和社会功能预先嵌入设计、运行与风险评估会同设计,都是十分必要的。


  最后,从立法范畴看,人工智能立法作为科技立法的特别领域法,应当注意一般与具体的结合,还要注意自身与其他法律的交叉。前者,体现为人工智能立法存在一般规范与具体规范的合理分置问题。人工智能一般法,通常包括人工智能一般市场规范、一般风险规范以及一般政策规范的内容;而人工智能特别法,目前存在不同划分方法,现在的一种趋势是,按照人工智能具体场景或者应用功能类型做出进一步细分,比如人工智能传媒、内容分发、电商平台、社交平台、搜索算法、公共服务(广义包括政务、司法等)、交通(无人机、自动驾驶)、智能辅助、医疗诊断、法律助手等。后者,则指应当注意人工智能立法与宪法、行政法、民商法、刑法、诉讼法、经济法、环境法、知识产权法、国际法等既有法律的交叉关系,它主要是以与普通法有重要区别的科技特别法而定位。所以,一方面人工智能领域存在传统法律部门的交叉适用,另一方面却在很多地方需要具体化、特殊化、进一步场景化。以经济法领域为例,最近几年围绕人工智能和大数据的使用,开始产生大数据、人工智能与竞争政策的新问题,出现了数据驱动型、人工智能驱动型的反竞争行为甚至是垄断行为。


 五
结论:人工智能立法转型引领科技与法律新型关系

  近代以来科技立法以经济主义之名,在“技术—经济”轨道上走了很久,两三百年以来收获了巨大的技术经济红利。我们为之也付出了不菲的代价,特别是在近前以来越来越感受科技对人类安全的威胁、对于社会公平和安定的不断冲击。进而,自主化技术和技术垄断成为时代标签,而我们在其中正在失去作为人的自主性,被裹挟、被无奈。那么,人工智能时代,我们还应该这样吗?当然不应该。人工智能科技以其潜在的威力正在塑形一个新的时代;而人类法律智慧在这个时刻应该感受自身元神的召唤!我们在期待见证人工智能新经济的时刻,也应担心,这种人工智能科技,会使得人类被混淆和取代吗?我们的“人性”会被挤出这个世界的主要位置吗?我们应该如何应对和布局,才算理顺了人与人造物的基本关系?我们能够接受或容忍与人工智能进行何种相通呢?


  本文正是在这个意义上,提出人工智能立法应当跳出路径依赖,告别“技术经济人”简单假设,全新打量技术社会场域的新思考,兼顾经济与社会,即要从“技术—经济”向“技术—社会+经济”转型。既拥抱人工智能的经济福利,又发展和保全人类自身和社会。总之,这种新范式体现着当代科技立法的新趋势,演绎着科技新人文主义,引领法律与科技的关系新型化,由单一经济主义向社会和经济并重转变,成就第四次工业革命中法律变革的精彩。


推荐阅读- 向上滑动,查看完整目录 -


《武汉大学学报(哲学社会科学版)》2020年第1期法学要目


1.人工智能立法的“技术—社会+经济”范式——基于引领法律与科技新型关系的视角
作者:龙卫球(北京航空航天大学法学院)
内容提要:人工智能立法应以立法范式转型引领科技立法进入新时代。这一转型是对近代以来科技立法形成的“技术—经济”范式的重大超越。既有科技立法范式,简单强调经济主义的单一维度,虽然两三百年以来成功地刺激了科技应用和经济增长,但是现在明显具有很大的不适应性。一方面,这种过度经济主义模式本身导致了对科技社会性的忽视,引发越来越严重的科技与社会风险;另一方面,正在兴起的人工智能科技具有前所未有的强社会面相,它的巨大颠覆潜力和认知能力等特性,使得其应用面临着复杂而迫切的社会规范要求,特别是引发了对人的价值性的关切,因此应该向“技术—社会+经济”新范式转变,以经济性、社会性的双重架构以及相应的四项原则等,来推进对人工智能的合理规范。
关键词:人工智能立法;科技立法;“技术—经济”范式;“技术—社会+经济”范式;自主化技术;人的价值性;人工智能伦理
2.作为典型合同之服务合同的未来——再论服务合同典型化之必要性和可行性
作者:周江洪(浙江大学光华法学院)
内容提要:典型合同的取舍标准,不仅在于该类合同的社会经济重要程度,还在于其区别于其他典型合同的异质性。现有合同法规则及典型合同类型不能有效适用于服务合同,我国民法典有必要将服务合同作为典型合同予以规定。中国民法学的发展、裁判实践的丰富性、比较法上的先例以及合同立法技术的发展,使得服务合同一般规则的设计也具有可行性。在具体立法模式上,可以采用以服务合同一般规则统领各类具体服务类合同的立法模式。在具体规则设计上,可以以服务提供人和服务受领人之间的权利义务关系为中心来构建规则。
关键词:民法典;服务合同;必要性;可行性;典型合同

3.侵权责任之惩罚性赔偿
作者:张红(武汉大学法学院)
内容提要:基于侵权责任引发的惩罚性赔偿规定散见于多个不同法律部门,且适用范围日趋扩大,但各部门法规范彼此交叉混同、不成体系,有损法制统一。作为民事基本法的《侵权责任法》,仅在第47 条对产品侵权责任之惩罚性赔偿作出规定,适用范围狭窄,难以肩负整合体系之重任。应在《侵权责任法》第二章“责任承担”中对侵权责任之惩罚性赔偿作出一般性规定,指引其他部门法对此类惩罚性赔偿做更为具体的规定。适当扩大解释“商品”“消费者”和“经营者”,以《消费者权益保护法》(下称《消法》)第55条第二款作为消费者权益保护领域惩罚性赔偿的一般性规定;在食品侵权责任之惩罚性赔偿上构建“《食品安全法》第148条+《消法》第55条第二款”的法律适用公式;在医疗产品侵权责任之惩罚性赔偿上构建“法释 [2017]20号第23条+《消法》第55条第二款”的法律适用公式;在旅游服务侵权责任之惩罚性赔偿上构建“《旅游法》第70条+《消法》第55条第二款”的法律适用公式。构建一般规定与特别规定相互补位的法律体系,实现法律体系稳定性和开放性的统一,以应对惩罚性赔偿制度的发展。 
关键词:消费者权益;侵权责任;惩罚性赔偿




《武汉大学学报(哲学社会科学版)》为双月刊,由创办于1930年的《国立武汉大学社会科学季刊》发展而来,是我国最早出版的学报之一。《武汉大学学报(哲学社会科学版)》一直是CSSCI核心期刊,2012年获得国家社科基金第一批资助,2013年获得“湖北十大名刊成就奖”,2014年获得国家社科基金资助期刊考核“优秀”,2017年、2015年获得全国“百强社科期刊”。


责任编辑:郇雯倩
审核人员:张文硕
往期精彩回顾
百万法律人都在用的北大法宝详细介绍!
刘艳红等:企业管理人员刑事法律风险及防控路径 
冉克平:论《民法典婚姻家庭编(草案)》
李翔:实务解析《关于依法惩治妨害新型冠状病毒感染肺炎疫情防控违法犯罪的意见》
吕忠梅:野生动保法修法应增加“保障公众健康和公共卫生”
秦前红教授解读《传染病防治法》:限制,就是最好的保护




客服 | 法小宝

微信 | pkulaw-kefu

微博 | @北大法宝


点击相应图片识别二维码

获取更多信息

北大法宝

北大法律信息网

法宝学堂

法宝智能

    您可能也对以下帖子感兴趣

    文章有问题?点此查看未经处理的缓存