查看原文
其他

华政学报 | 林少伟 人工智能对公司法的影响:挑战与应对

林少伟 华东政法大学学报 2022-04-24

人工智能对公司法的影响:挑战与应对

作者简介

林少伟 西南政法大学民商法学院副教授、硕士生导师,人工智能法律研究院区块链研究中心主任。本文系国家社会科学基金项目“《公司法》私人执行之检视”(项目号17CFX072)的阶段性研究成果。

目 次

一、 人工智能对公司法的可能挑战

二、 人工智能与董事的关系:两种形态

三、 作为辅助的人工智能:迫在眉睫的法律应对

四、 作为董事的人工智能:一种可能的想象

五、 结语

摘 要

人工智能的迅猛发展,将对公司法造成影响,其中主要体现在其对公司董事的影响。人 工智能与董事之间的关系因不同发展阶段而有所不同,在弱人工智能阶段,人工智能因尚未达到可模拟人脑进行抽象思维的阶段,其可作为董事的辅助工具,但公司法需解决董事是否可将部分职权授于人工智能以及董事是否负有咨询人工智能的义务等问题。在强人工智能甚至超人工智能时代,人工智能担任独立董事不存在法律障碍的情况下,因人工智能与自然人董事的本质差别,公司法面临着诸多挑战,围绕传统代理成本理论而搭建的公司法规则框架可能需要重构,其他规范自然人董事的规则也 须相应调整,公司也可能因此而受到公权渗透。面对人工智能技术的日新月异,公司法应未雨绸繆。

关键词

人工智能   法律   公司法   董事

人工智能对公司法的可能挑战

早在2014年,人工智能对公司法的挑战已隐隐若现。研究生物科技与再生医学的英国公司 Aging Analytics 于 2014 年 5 月宣布,启用了一款名为VITAL(Validating Investment Tool for Advancing Life Sciences)的人工智能工具,并授权香港的风投公司Deep Knowledge Ventures将该人工智能用作该公司的投资委员。在被记者问及为何采用这一人工智能时,Deep Knowledge Venture的高级合伙人卡明斯基(Kammsky)称,人会受情感左右,有主观情绪,会犯错误,但VITAL这样的机器只会用逻辑思维,不可能因为一时意气出错。人类投资者的直觉和机器的逻辑性相结合,会打造一支完美的团队,将错误的风险降低到最小。VITAL入场后,已经帮助公司批准了两项投资:一个是在抗衰老医药领域开发计算机辅助方法的Silico Medicine,另一个是使用选择个人化抗癌治疗方法的Pathway Pharmaceuticals。Aging Analytics公司声称,VITAL在投资委员会和其他委员是平等的。事实上, VITAL在当时虽然冠以“投资委员”之名,但实际上并非对任何的投资都享有跟其他委员同等的表决 权。而且,根据香港公司法的规定,VITAL也无法获得“董事”地位。因此,Aging Analytics公司的其他委员认为,将之视为投资委员会的“观察员(observer)”可能更为适当。

VITAL的出现,实质上引出一个更深层次的问题:公司法与人工智能的相遇将会擦出何种火花? VITAL可能被视为公司的董事,也可能被视为公司董事决策的辅助(即观察员),但不管是哪一种情形,均会导致公司法语境的一连串追问:如果VITAL被视为董事,则传统公司法关于董事的相关规则(比如董事义务规则)是否仍然适用?如果不能适用,应当如何重构?如若VITAL不被视为董事, 而仅仅是被视为董事决策的辅助手段,则这种辅助性工具是否也受到公司法的规约?如董事因听信 VITAL所作出的决策导致公司利益受损,VITAL本身是否应当承担责任?无生命无感情之VITAL 又该承担何种责任,才能与其行为与身份相匹配?凡此种种,无疑均会对公司法造成挑战与冲击。

事实上,人工智能的出现,不仅会冲击公司董事,也会改变公司的其他元素。比如,人工智能也可以充当投资者或公司股东本身(或者为股东决策提供协助),也可以充当劳动力,成为公司雇员。然而, 当人工智能本身成为投资者时,其所作出的决定相对单一:或者支持,或者反对。这显然与作为董事的人工智能有着深刻不同,因为董事决策涉及方方面面,并需考虑各种因素,在日常管理中,也并非简单地支持或反对就可解决。因此,与董事相比,人工智能对股东或投资者的冲击相对较弱。此外,当人工智能充当股东时,相对董事而言,其对公司其他利益相关者的影响较弱。而当人工智能充当公司雇员时,其所要应对的是人工智能作为劳动者的身份与地位的认定、对公司工作任务与规划的冲击与瓦解以及工作中可能产生的责任纠纷。而这在很大程度上主要涉及《劳动合同法》《侵权责任法》等其 他部门法,已远远超出《公司法》所能规制的范围,也非《公司法》所能承受之重。故此,本文关于人工智能对公司法的挑战,主要探讨其与公司董事之间的关系并分析由此关系所引发的冲击及其应对之道。

人工智能与董事的关系:两种形态

人工智能与董事之间的关系因人工智能不同的发展阶段而呈现出不同的特点。根据人工智能的实力,有学者将人工智能分成三大类。第一类是弱人工智能(artificial narrow intelligence),即擅长于单个方面的人工智能,比如能够战胜围棋冠军的人工智能。但对这类人工智能,其也仅仅只能在围棋方面发挥才能,超出此范围,则无能为力。第二类是强人工智能(artificial general intelligence),即具有人类级别的人工智能,可以在各方面与人类相比。对于这类人工智能,美国特拉华大学戈特弗雷德逊(Gottfredson)教授认为其“能够进行思考、计划、解决问题、抽象思维、理解复杂理念、快速学习和从经验中学习等操作”第三类是超人工智能(artificial super intelligence)即在各方面比人类更强大的人工智能。牛津大学知名人工智能专家博斯特罗姆(Bostrom)教授认为这种人工智能“在几乎所有领域都比最聪明的人类大脑聪明很多,包括科学创新、通识和社交技能”。在弱人工智能阶段,由于人工智能仅限于处理相对单一的事务,且其发展尚未达到“模拟人脑”程度,人工智能仍然被视为一种法律上的客体或物,被归为“工具”的范畴。此时,人工智能的出现虽引发诸多新问题,但仍可以在传统的法律规则之内得以妥善解决。目前的人工智能技术大多停留于第一类的弱人工智能阶段,强人工智能和超人工智能尚未出现。然而,尚未出现并不代表不会出现,法律对此不应高高挂起、坐视不 理,而应未雨绸缪。事实上,介乎弱人工智能与强人工智能的阶段已然出现,赫伯特•波斯纳法官在“Pompeii Estates, Inc. v. Consolidated Edison Co案”中所作出的“计算机仅能执行强制的指令对其编程不是为了使其做出判断”这一论断显然已落后。比如人工智能技术在ICT领域的迅猛发展而产生的无人驾驶汽车和医疗机器人就是佐证。无人驾驶车的人工智能系统显然已超越弱人工智能阶段,但尚未进入强人工智能。此时此刻,如果无人驾驶汽车出现事故,撞伤他人,该如何追责?是“无 人驾驶者”人工智能系统本身?抑或背后的程序研发者、运营者还是使用者?这显然已突破既有法律规范,而急需新型法律体系予以应对并加以规制。

根据人工智能上述三大发展阶段,其与公司董事的关系可以分为两种:一是作为辅助董事的人工智能;二是作为董事独立个体的人工智能。作为辅助董事的人工智能,目前已经出现,并主要在投资银行业中使用。瑞士联合银行集团(UBS,以下简称“瑞银”)在此领域可谓一马当先,其伦敦分行与德 勤(Deloitte)会计事务所及金融科技公司Tradelegs合作开发人工智能及机器学习(Machine Learning) 系统,帮助交易员分析数据及调度资金。他们合作开发的人工智能不仅能够处理一些重复性高、复杂性低的传统工作,更可以分析大量交易数据,针对金融市场变动趋势为瑞银制定投资策略以提供参考。此外,瑞银还与亚马逊的Alexa合作,聘请其为瑞银的客户解答相关问题。此时的人工智能可作为一种辅助董事的工具,为董事决策提供意见。作为董事独立个体的人工智能虽然尚未出现,但可以想象,当人工智能发展到一定程度,可以模拟人脑并具有抽象思维时,人工智能成为独立的董事也将水到渠成。然而,不管人工智能作为一种辅助功能,抑或独立个体,均会对公司法造成一定冲击,公司法对此也须重新审视并作出相应的制度安排。

作为辅助的人工智能:迫在眉睫的法律应对

通过对算法的不断优化以及对数据的挖掘与分析,且因其本身所具有的“天然”优势,人工智能已在诸多领域达到甚至超越人类的水平,人工智能为公司董事的决策提供参谋辅助也不再是空中楼阁。甚至于,人工智能因其本身无情感的“中立”地位,依据事先设置的算法与程序,更能为公司提供 不夹带任何私利的意见。正如上面所述,瑞银与其他公司合作开发的人工智能,为其投资决策提供咨 询意见已有数年,也已产生了正面效果,人工智能为董事决策提供辅助意见已非天马行空地想象。然而,在公司法视野里,这意味着两大挑战:一是公司董事可否授权给人工智能,让其代行处理本来应由董事所为之事;二是公司董事在一定条件下是否负有聘请人工智能提供决策咨询的义务。下面笔者将就此两大问题展开论述。

(一) 董事是否可授权给人工智能

1.现行规定

人工智能辅助董事进行管理,涉及人工智能与董事之间的分工,也涉及董事可能须将部分权力授予人工智能的问题。因此,从公司法上而言,董事是否可授权给他人(包括人工智能)是关键。一般认为,董事作为公司管理人员,应当履行亲自管理的义务,这已成为大多数国家公司法的基本原则之一, 但亲自管理原则并不意味着不得授权他人管理。事实上,很多国家在确立亲自管理原则之外,也规定了例外情形。在新西兰的“ Daily Containers v NZI Bank” 案中,法官托马斯(Thomas)明确指出:“董事最为重要的任务就是管理公司事务,这意味着他们享有管理的权力与责任。当然,为了提高管理效 率,他们在必要之时可以将部分权力授予公司经理,以处理公司日常事务,但这并不意味着管理功能本身的转移。”可见,托马斯法官虽认可公司董事在必要时可将部分管理权能授予经理,但实际上托马斯法官仍认为这种授权并非管理权的转移,且仅在必要时才可授权。在美国,在 “Re Bally’s Grand Derivative Litigation案”中,法官认为“董事不得将管理核心的权力授予他人”在“Barings plc案” 中,乔纳森•帕克Jonathan Parker)法官也回应上述观点,并进一步指出“无论是作为集体抑或个人, 董事负有对公司业务获取和维持充分知识和了解的义务,以便更好地履行作为董事的职责”,由此可见,在帕克法官看来,原则上董事职权可授予他人,但由于董事必须获得并保有作为董事所应当具备的知识与技能,因此不能随意授权给他人,且在授权范围方面,核心性管理权力也不得授予他人。 然而,何为核心性管理权力,法官则语焉不详。瑞士在其公司法中对此有相对明确定义,根据《瑞士公司法》第716条规定,法律禁止董事将公司关键性管理权(key management of the corporation)授予他人, 在何谓“关键性管理权”方面,瑞士公司法规定“公司发展战略目标以及为实现并控制这些目标所决定采取的手段”属于关键性管理权,并不得授予他人。

在英国,历经十数年修改而成的《2006年公司法》并没有禁止董事授权他人管理公司,其示范章程第5条则明确规定在不违反公司章程的情况下,董事可在其认为适当时将权力授予任何个人或委员会。由此可见,英国在这方面的规制相对宽松,只要不违反公司章程,董事便可授权给个人或委员会。然而,此处所采用的对象术语是“个人”或“委员会”,人工智能是否也包括在内不无疑问。如果从狭义的文义解释出发,人工智能既非“个人”,也非“委员会”,显然无法囊括在内。但如果从广义的目的解释出发,人工智能囊括在内也并非不可能。显然,示范章程之所以允许董事将其管理权授予他人,其目的在于提高管理效率。在公司事务繁多,董事个人无法亲力亲为之时,将部分权力在某一 特定时间段授予他人,实际上有利于提高管理效率,更好地维护公司利益。以此目的而言,董事将部分管理权授予人工智能,让其代董事处理部分事务,本质上与其他“自然人”或“委员会”代为管理并无二致。因为一旦因授权代为管理而出现问题,首当其冲的担责主体是授权的董事。从此意义上而言, 英国公司法并不禁止人工智能辅助董事,董事也可将其部分权力授予人工智能。

我国关于这方面的规定,涉及《公司法》的两个条文:其一是董事因故不能出席董事会的,可以书面委托“其他董事”代为出席;其二是董事会可将其职权授予经理。据此,董事会的任何决议均需要具有“董事”身份的人出席,因此,董事不得将任何涉及参与董事会讨论或行使董事会表决权的权力授予其他非董事的人。此外,其他职能权力,董事可授予经理。然而,问题的关键是:《公司法》第 49条的规定是否为强制性规定?抑或是一种默示性规定?董事授权于他人是否仅限于经理,抑或可 以授权于其他非经理人士?笔者认为,对此应当进行扩大解释,在章程没有其他规定的情况下,为提高公司管理效率,应当允许董事授权给他人。如此一来,人工智能作为辅助董事的角色也将水到渠成。

2.如何应对

当人工智能作为董事辅助性角色不存在法律障碍的情况下,需要解决的另一问题是:如何从法律 上确定因人工智能的辅助而导致的责任。首先应明确的是:董事授予部分职权给人工智能后,并非从此就可以置身事外。恰恰相反,董事应当对此以及相应后果承担责任。帕克法官曾明确指出“在符合公司章程规定下,即便董事将特定权力授予其他非管理层人员,并合理相信被授权人具有一定的能力与诚信,也并不意味着可豁免其所负有的监督与履行被授予权力的义务”。我国《公司法》虽对 此没有明确规定,但在其他私法领域,比如《信托法》中有类似的规定,《信托法》明确规定受托人须亲自管理,但如果信托文件另有规定或者有不得已事由的,可以委托他人代为处理。如受托人依法将信托事务委托他人代理的,应当对他人处理信托事务的行为承担责任。当董事将职权授予人工智能处理相关事务时,董事当然也需承担相应的后果,具体包括以下三个方面。第一,在选任方面,董事选任人工智能辅助其决策时,应当尽责了解相关信息,知悉人工智能的运行原理、工作目的、基本算法逻辑和相应设备的操作等。当然,基于董事本身并非人工智能专业人士,不可能要求董事对人工智能具有很深刻的了解和掌握,但其应当具备选任人工智能的相应知识储备和基本技术。第二,在人工智能工作期间,董事应当负有谨慎义务,这主要体现在输入与输出两方面:一方面,董事应当确保提供给人工智能的数据准确无误;另一方面,董事对人工智能所输出的结果也应进行一定程度的审核,不能未经审核就随意采信。第三,应确保人工智能不会对公司管理造成重大损失。董事应当通过各种途径, 确保人工智能系统运用安全、顺畅,并定期让专业人员对人工智能进行维护,确保不因人工智能的出 错而导致公司遭受重大损失。

(二) 董事是否有义务聘请人工智能

既然人工智能在某些特定领域具有无可比拟的“超人”优势,那特定领域的公司董事是否负有聘请人工董事作为辅助决策的义务?此言并非凭空臆造,因为根据公司法原理,董事作为受托人,负有实现公司利益最大化的义务,而实现公司利益最大化,当然也包括董事需在决策之前获得最为充分的信息与分析。以此而言,提出董事是否负有聘请人工智能的义务这一问题显然并非天方夜谭。英国 《2006年公司法》第172条中就明确指出,公司董事必须以他善意地认为为了公司成员的整体而将最大可能地促进公司成功的方式行事,虽然英国以“公司成功”一词替代“公司利益”,但其更改的主要目的在于用更为中性色彩和广义的概念来取代具有争议性且狭义的“利益”二字,本质上要求董事为公司利益最大化行事的规定依然如故。在美国,董事须为公司利益最大化而行事的规定已成各州公司法普适性原则之一,存有争议的仅仅是如何定义“公司利益”,是坚守公司利益等同于股东利益这一传统立场,抑或顺应历史潮流,将公司利益扩大至其他利益相关者。我国《公司法》虽然明确指出董事需负有以公司利益最大化行事的义务,但在《公司法》相关条款中可窥得有此要求。比如,我国《公 司法》第21条要求公司的控股股东、实际控制人、董事、监事、高级管理人员不得利用其关联关系损害公司利益,即从关联关系的负面角度要求董事须为公司利益行事。第147条规定董事应当遵守法律、 行政法规和公司章程,对公司负有忠实和勤勉义务。其中忠实义务所对应的不得有利益冲突以及勤勉所对应的谨慎和注意,无疑也是围绕着公司利益而展开。第148条则对董事不得从事具体行为进行详细列举。可见,我国《公司法》即便没有明确提出董事负有为公司利益行事之义务,但通过旁 敲侧击的散落式规定,也呈现出董事须为公司利益最大化而行为这一潜在含义。

故此,如果人工智能有助于董事做出更好决策,则董事聘请人工智能作为决策参考似也应当成为 一种义务。特别是人工智能在信息处理与数据分析方面具有无可比拟的“超人”能力,而董事在决策前,受“注意”或“勤勉”义务之约束,又不得不在决策之前获悉一定的信息作为决策参考,否则可能会违背注意义务。美国《公司治理通则:分析和建议》第4.01 (c)款对董事注意义务明确作出规定,将 “充分的知悉”列入其中。德国的《股份有限公司法》则规定董事应当具有一个正直的、有责任心的业务领导人的细心。英国的《2006年公司法》虽大致规定了公司董事需负有勤勉、谨慎和技能义务,但在《破产法》中则规定董事需具备可以合理地期待于履行同样职能之人的一般知识、技能和经验。无论是德国的“细心”要求,还是英国的“知识或技能”,实质上都要求董事在决策之前需“充分地知悉”相关信息,否则可能触及注意义务之红线。有鉴于此,董事借助人工智能的优势获取相关信息则可能成为其做出决策的先决条件。当然,这种信息知悉具有较高的“信息成本”,比如需要与其他公司合作开发相应的人工智能等。在当前人工智能尚未进入强人工智能阶段之时,要求董事负有聘请人工智能提供决策参考的义务过于超前,也并不现实。但假以时日,随着人工智能的迅猛发展, 对于某些特定行业的公司而言,董事负有此种义务的日子或许并不遥远。

 

 

作为董事的人工智能:一种可能的想象

当人工智能进入强人工智能时代,能够模拟人类脑袋,可以进行“思考”等抽象思维时,其角色也可能不再仅限于辅助性功能,而可能作为独立个体成为董事,与其他董事享有同等的表决权。事实上, 即便尚未进入强人工智能时代,可以预见,短期内,机器人与人类的“抽象性”差异会越来越小,未来 机器人拥有生物大脑的可能性也越来越大。有人提出,在21世纪中期,人工智能所拥有的智慧将会十亿倍于今天所有人的智慧。当然,人工智能以独立个体的形式出席董事会,意味着在法律上面临三大问题:第一,人工智能是否可以成为享有权利并承担责任的法律主体;第二,公司法是否允许人工智能成为董事;第三,公司法如何应对作为董事的人工智能。

(一) 法律人格的赋予与否

人工智能是否可以成为法律上认可之主体,这一问题仍存有争论,特别是在哲学界,人工智能与主体意识之间争辩几乎已成世纪难题,至今仍未达成共识。

我国著名法学家吴汉东先生认为机器人既非具有生命的自然人,且其与具有自己独立意志并作为自然人集合的法人也有所区别,将机器人作为拟制之人以享有法律主体资格,在法理上存有商榷之处。且机器人的知识不仅限于特定领域,还都是人类输入,这种情况下,显然不具备人之心性和灵性, 也不能与具有人类智慧的自然人集合体相提并论。因此,吴汉东先生认为机器人不足以取得独立的主体地位。但也有学者对此持不同意见,认为人工智能也可以必须成为一种具有人格的法律主体, 有资格享有法律权利并承担义务,但由于人工智能承担行为能力的后果有限,人工智能应适用特殊的法律规范与侵权责任体系,其所具有的法律人格是有限的法律人格。更有学者认为,探讨人工智能是否具有法律主体资格实际上显得多余,也毫无必要,因为即便赋予法律人格,最终的责任承担者都是人。

然而,学术界的争论并不影响实践的进展。欧盟委员会法律事务委员会曾在2016年5月发布《就机器人民事法律规则向欧盟委员会提出立法建议的报告草案》(Draft Report with Recommendations to the Commission on Civil Law Rules on Robotics)。同年10月,法律事务委员会发布研究成果《欧盟机器人民事法律规则》(European Civil Law Rules in Robotics)向欧盟委员会提交动议,要求对人工智能提出立法。在此立法建议中,法律事务委员会提出了多项立法建议,其中包括建议“赋予复杂的自主机器人法律地位”,认定其为“电子人(electronic persons)”。在认定哪些自主机器人能够成为电子人时, 法律事务委员会提出了以下几个标准(1)通过传感器和(或)借助与其环境交换数据(互联性)获得自主性的能力,以及分析那些数据的能力;(2)从经历和交互中学习的能力;(3)机器人的物质支撑形式; (4)因其环境而调整其行为和行动的能力。虽然欧盟至今还没正式就人工智能通过有约束力的法律, 但假以时日,某些特定或符合设定标准的人工智能成为特定主体并非遥不可及。

(二) 人工智能成为董事的公司法障碍

即便将来人工智能具有法律人格,或是具有某种有限的法律人格,也并不意味着其就可以水到渠成地成为公司董事,因为公司董事也需符合一定的标准。因此,人工智能成为董事也存在着一定的公司法障碍。人工智能能否成为公司董事,首先应解决非自然人可否成为公司董事这一前置性问题。 倘若连非自然人都不能成为公司董事,则举重以明轻,人工智能当然无法成为董事,至少在法律逻辑内无法自圆。根据我国《公司法》的规定,董事一般由自然人担任,即所谓的“股东董事”。我国《公 司法》第44条和第108条对董事资格的积极要件作出了规定,第146条则对董事资格消极要件做出规定。根据上述规定,《公司法》并没有明确禁止非自然人担任公司董事。然而,其第146条第1款 所规定的不得担任董事的五种情形均是针对自然人而言,这在事实上似乎排除了非自然人担任公司董事的可能性。这或许可以在上市公司的相关规定中得到佐证。我国证监会颁发的《上市公司章程指引》(2016年修订)第95条直截了当地规定“公司董事为自然人”。从上述规定,似可得出这样的结论: 我国上市公司明确禁止非自然人担任董事,而在非上市公司中,董事一般也是自然人。此外,在实践中,公司设立登记或董事变更登记时,工商管理机关都会要求提交董事身份证等个人证件,这似乎从实务角度证实非上市公司的董事也应是自然人。但也有学者提出,以此断然否定我国存在法人董事制度的观点并不正确,因为我国公司运作实务中,董事由特定股东指派并事实上由该股东任免的“股东董事”的情形仍然普遍存在,而这本质上与法人董事相去不远。我国著名商法学者赵旭东教授早在2003年时即指出,法人董事在我国实际上已存在,很多公司控股股东已成为事实上的董事,或其派出的董事已成为其代言人,由背后的控股股东所操控,本质上而言这已是法人在行使董事的职权。 因此,赵旭东教授提出应当从立法上明确允许法人担任董事,以便澄清此中的法人及其代理人的相关责任。

此外,《公司法》及《上市公司章程指引》的诸多条款虽或指向自然人董事,或明确规定自然人董事,但一些散落于各部门法的条款也闪烁着法人董事的身影。比如《中外合资经营企业法》中规定的中外合营者一方可担任董事长或副董事长。《中外合作经营企业法》中也有类似的规定。《合伙企业法》中也规定了法人或其他组织可执行合伙事务。《企业破产法》则规定债权人会议主席可从有表决权的债权人中指定,因此法人债权人完全有可能担任债权人会议主席。即便在《公司法》中,也可窥得法人董事的事实存在。该法第67条第2款关于国有独资公司董事会成员的委派规定以及第44条第2款关于职工代表大会选择代表人担任董事的规定,实质上从另一侧面认可了法人董事。而在域外,大多数国家在很大程度上已承认法人董事。比如《法国商法典》第L225-20条明确 规定法人可担任公司的董事。英国《2006年公司法》则“含蓄性”地规定“公司必须有一个自然人董事”。这显然意味着法人也可以担任公司董事。美国特拉华州公司法虽禁止法人担任公司董事,但该规定却并不必然意味着公司章程不可以规定股东享有不经股东大会而任命董事的权利。而且根据《标准公司法》规定,闭锁型公司可自行约定公司管理架构,当然也可约定特定人(包括法人)担任公司董事。而我国台湾地区也允许政府或法人在符合一定条件时可担任公司董事。由此可见, 法人可以担任董事在域外已逐渐被认可,在我国实践中也不乏实例,承认法人董事乃大势所趋。而一 旦允许法人担任董事,人工智能担任董事的公司法障碍也就自然消除了。

(三) 对公司法理论与规范的挑战

如人工智能成为董事,它无疑会给公司法造成极大的挑战。公司法需提前介入,并作出相应的制度安排。正如李彦宏等人所指出的:……也许真要靠算法的顶层设计来防止消极后果。人工智能技术可能不只是理工科专业人士的领域,法律人士以及其他治理者也需要学习人工智能知识,这对法律人士和其他治理者提出了技术要求。法治管理需要嵌入生产环节,比如对算法处理的数据或生产性资源进行管理,防止造成消极后果。”这种法律应对的顶层设计,无疑需要具体每个部门法的深入探讨,才可能形成并构建人工智能社会的宪法。

1. 代理成本理论的撼动

现代公司法得以塑造的核心基础是代理成本(agency costs),该理论认为公司治理最重要的问题是管理者与股东之间的利益冲突,而这种利益冲突根源于所有权与控制权的分离,即拥有公司的人不控制公司,控制公司的人不拥有公司。这种分离使得管理者会投机取巧、牟取私利。他们会通过各种途径假公济私,降低公司价值,进而产生代理成本。有鉴于此,学界想方设法,实施代理参与权制度 (proxy access)董事义务以及禁止交错董事会等制度,试图问责管理者,降低代理成本。可以说,公司法规则乃围绕着如何降低代理成本而构筑。然而,当人工智能成为董事时,由于人工智能本身不可能营私舞弊、损公肥私,传统的代理成本理论在人工智能面前也将烟消云散,而基于代理成本所搭建的公司治理架构以及公司法规则也须重构。

2. 决策风险的可控性

当自然人作为董事时,因每个人所具有的“特质愿景”的不同,可能会呈现风险偏好型特点, 也可能出现风险保守型特征。除此之外,董事本人可能也会因其自身财富或其他考虑因素而呈现出不同的风险态度。一位腰缠万贯的富豪受邀担任公司高管,或者未经商战风浪锤炼而子承父业的富二代,他们在管理经营公司时,因对风险的可承受性较强,或对风险的失败感知度较浅,很可能会无所顾忌,大胆决策,贸然投资,采取更为激进的管理方式和经营方针。反过来,如果是胆小谨慎之人管理 公司,则可能出现截然不同的经营战略。因此,当自然人担任董事时,决策风险相对难以把控。但如由人工智能担任董事,则通过对代码与算法的设计,完全可以对决策或投资的风险进行提前设置,也就可以提前实现对决策风险的把控,故此,公司法也无须担忧董事的过度激进或过度保守的行为会否影响公司的未来,进而也无须设置与此相关的规则来鼓励或约束董事行为。

3. 激励机制的取消

为了减少代理成本,促进董事为公司服务,确保董事为公司利益尽心尽力,规制者可谓绞尽脑汁。 激励机制是当中一种,即从正面角度约束董事行为,促使其与股东利益趋向一致。通过对董事赋予股权激励或其他激励方式,在很大程度上可有效降低董事假公济私的可能性。但在人工智能情况下,机 器人显然没有金钱的概念,也不存在为了享受金钱所带来的优越感而营私舞弊,侵犯公司利益。因此,传统的董事激励机制在人工智能面前也百无一用。与此同时,与绩效要求相关的规定也可能因此被束之高阁,公司法在这一方面也须进行相应调整。

4. 董事义务的修正

传统董事义务包括忠实义务与注意义务,忠实义务之核心在于避免利益冲突,这在自然人担任董事时尤为重要,通过施加忠实义务以防止董事通过自我交易或关联交易损公肥私已成为各国公司法的必备条款之一。然而,通过代码与算法的设置,人工智能董事完全可以避免利益冲突,故此,忠实义务也失去规范的价值。而注意义务主要强调董事决策的善意与信息知悉,对于人工智能董事而言,善意与否自不在话下,其主要在于决策的输出乃基于充分的信息。因此,应当根据特定行业相应设计一连串相关的代码与算法,确保人工智能董事在决策时,可以依据其原定的算法与获取的信息,形成合 符注意义务的相关决策。这也意味着,公司法应当强调人工智能董事的注意义务,并且通过多方面(包括人工智能生产商、供货商和系统设计者等)的有效规制来确保该注意义务的遵守。

5. 事后救济转变为事前预防

传统公司法规则注重救济,即通过对特定主体的不端行为予以惩罚的方式保障受侵犯者的合法权益。但这也有弊端,如果过度强调事后救济而忽视事前预防的重要性,则可能会因为董事出于侥幸心理而导致出现大量公司法纠纷,这并不符合公司法规制的初衷。而人工智能董事的出现,则可以有效扭转这一规则方向。因为人工智能董事虽贵为董事,但毕竟既非自然人,无法受到肉体惩罚与精神折磨,同时也不是法人,难以受到金钱制裁。故此,传统公司法以事后救济为核心的规则框架,显然无法适用于人工智能董事,公司法规则也因此必须进行调整,从事后救济转变为事前预防,由原定的法律转化为代码,以抽象的代码取代特定场景下的具体行为规制,以有效迎接人工智能的挑战。

6. 公司的潜在风险:公权的渗透

人工智能的发展离不开国家的统筹规划,事实上,业界人士也在呼吁国家干预,从国家战略层面制定人工智能的发展规划路线图,以避免重复和无序研究,实现全球人工智能的引领地位。一旦人工智能发展进入强人工智能阶段,机器人可以比拟人类之时,国家身影更加不能缺位,国家之手也应当强硬,因为对一个中心的入侵,很可能会导致所有的终端都出现安全隐患,《西部世界》中人造人叛变并反击人类的故事也可能发生。也正因如此,当人工智能被设计用于担任董事时,对该类人工智能的代码与算法不应全然来自公司或股东或公司法专家,因为任何一个单方主体均不足以应付或掌控人 工智能。此时此刻,政府干预不可缺少,公权机关应介入人工智能的代码与算法,以避免可能发生的机器人反攻人类的惨况。事实上,公权机关对算法的控制在某些领域已被视为理所当然的事情。当然,公权具体应从何种方式介入监管值得讨论,比如可以要求对人工智能设定安全标准,且针对一 些重要设施或重要目标的源代码要求其必须向监管机关进行备份,或在设计自动化交易程序时控制报单频率的阈值等。但不管如何,一旦公权机关介入人工智能的算法,则公司的人工智能董事可能会受到某种程度的国家控制。如若国家通过算法实现对人工智能董事的控制,也就意味着公司存在被国家控制的潜在可能性,如此一来,可以说,只要有人工智能董事的公司,公权的渗透就无处不在,未来公司法如何应对这一挑战,如何在风险应对与私权保护、科技变革与法律秩序之间取得动态平衡, 无疑值得法律人深思。

结语

人工智能给人类带来的便利超乎想象,与此同时,人工智能也会引发诸多问题,冲击现行法律制度规范。早在20世纪80年代,就有学者声称:“不容置疑的是,能够执行复杂计划和法律推理的计算 机系统肯定是未来几十年法律实践的一场革命”。在现行科学技术条件下,人工智能尚处于弱人 工智能阶段,人工智能的一切行为尚可以通过事先的代码、算法和规则模板的计算与设计预先安排, 其所能操作或进行的行为均在人类的掌控范围之内。此时,人工智能对公司法的挑战相对不大,主要体现在辅助董事决策的角色,公司法应当予以解决的问题主要是董事可否将部分职权授予人工智能以及董事是否负有聘请人工智能的义务。而当人工智能发展到强人工阶段,具有模拟人类思维之时, 其将对公司法造成巨大的挑战。这并非杞人忧天、异想天开,正如美国人工智能专家拉塞尔(Russell) 和诺维格(Nomg)所言:“看来人工智能领域的大规模成功一创造出人类级别乃至更高的智能一将会改变大多数人类的生活,我们工作和娱乐的真正本质将会被改变。我们对于智能、意识和人类未 来命运的观点也会如此。在此层次上,人工智能系统会对人类的自主性、自由乃至生存造成更为直接的威胁”。如发展至这一阶段,则人工智能成为独立个体的董事,并非不可能。故此,公司法应当未雨绸缪,作出一系列的制度安排与应对,争取在最好的时代,运筹帷幄,防止最坏时代的出现。

(责任编辑:宫    雪)

(推送编辑:罗    倩)


本文原载于《华东政法大学学报》2018年第3期。若欲下载或阅读本文PDF文档,请点击下方阅读原文,欢迎订阅并分享华政学报(微信号ECUPL-JOURNAL)。


END


您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存