权利的定义

有法律权利指的是什么意思?按照C. 斯通纳的意见,一事物要成为法权的持有人必须满足如下标准:

· 该事物应它的要求能提起法律诉讼。

· 法院在决定授予法律救济时必须考虑到损害。

· 法律救济必须满足它的利益要求。

如果满足了这些条件,那么,事物在法律上就有考虑价值;事物为了它自己的利益在法律上就有公认的价值和尊严。斯通纳说,比如,一个所有人因他的奴隶被挨打而提起诉讼要求赔偿损害的法律行为,同奴隶本人为了自身康复、免除痛苦而提起诉讼完全是两码事、当然,对于一个孩子或机器人来说,一个监护人为了他(它)的利益、为了损害赔偿金,也可以他(它)的名义提起法律诉讼。

这对自然同样是真的。我们不能总是凭靠个人保护自然,因为他们没有资格代表个别所有者比如为河流下游的污染提起诉讼。但是,河流可通过授予其法律权利而得到保护。如果自然有权利,那么法院就会重视这种污染后果,不仅要考虑个别原告人的利益,而且要考虑到该河流的权益。由于自然的无权,眼下法院可能会这样定调裁决:因为工业要为更广大的公众利益服务,允许企业继续污染是出乎最大的公众利益。斯通纳说,“河流是看不见两种利益冲突间的量的妥协的。”

同样地,机器人研究者、制造者和用户的需要同那些反对机器人的人(因受机器人伤害或因其宗教观或劳动利益)发生矛盾而需加以权衡考虑时,我们也可以参加诉讼和辩论。判决必须考虑到争论结果,判决必须在当事人之间裁定。但是,如果机器人自己没有权利,它们就不会成为这种裁定的一方:它们就不会有法律地位,它们在法律上就不会是真实的。

无疑,随着机器人技术的发展和被利用来增加人类的集体财富——虽在资本主义制度下,机器将只会加深富人和穷人、雇员和非雇员之间鸿沟——它们的未来将像今天的环境那样同我们的未来息息相关地联系在一起。

权利的出现

同定义法权有同样重要意义的是关于权利怎样出现的问题,它们正在形成一种理论。当然它们不会一下子出现在法庭上。N. 米尔纳在综合有关儿童权利、妇女权利、残疾人权利、健康权利以及法律动员和法律社会化等方面的文献的基础上,对权利的出现问题提出了一个富有启迪性的理论。

这个理论的第一阶段是意象。在意象阶段强调潜在权持有者的合理性是必要的。按照这种观点,必须把机器人定义为有理性的行动者,或有意向的行动者。但这种观点只有从西方的观点看才是真的。从东方的观点看,前面已提到,合理性并不是对生命下定义。

权利出现的第二阶段需有一种证明合理的思想意识。在这个阶段出现了以意象形式证明变化合理的各种思想意识。按照米尔纳的说法,这些思想包括社会控制机构主张的思想和潜在权利持有者或他们的代表提出的思想。这些思想意识可能由科学家、科幻作家、哲学家也许甚至由未来学家提出来。他们必须证明机器人是个合法的生命范畴。

最后阶段是一种变化的权威形式。在此阶段,支配新兴权利持有者的机构的权威形式开始变化。由什么样的机构来直接控制机器人目前尚不清楚,可能是学术性的大学、公司和制造商,也可能是政府和军事部门。但是随着机器人权利的出现,我们可以预言,在控制机器人的各种机构之间以及这些机构自身内部会出现各种矛盾。米尔纳认为,社会网络的发展“会增强这种思想意识和构成潜在委托人、律师和调解人之间的制约关系。”由于一些重要的科学家加入各种政治组织,将会出现各色各样的维护机器人的团体。下一步涉及法律代理权。继之而来的是“惯例化”,就是要使'法定代理在惯例上有效。最后,政府要用诉讼程序表示出现权利持有人。

这只是一个总模式。万事开头难。要证明机器人有理性,将是困难的,特别是从那种认为理性是为自我定向的、自主的成年人所专有的西方观点看。假如这种思想占上风,或者说在以这种方式看待或想象机器人以前,机器人将可能不会获得权利。

经济问题

人工智能技术最终可能达到实用阶段,这将使机器人的意识达到可以认为是“活”的这一新水平,那时它们将被看作是理性的行动者。在这个阶段,我们可能指望机器人创造者和人的伙伴机器人本身会要求有某种形式的公认权利和责任。会要求有什么样的权利?生活、友谊和关怀这种基本人权吗?再生的权利吗?自我编制程序(自我表现)的权利?同人类相互通婚的权利?犯错误的权利?所得的权利?休息的权利?由它的同伴(计算机)审理的权利?被认定是犯罪被害者的权利?保护它的存储体免遭无端搜查与扣留的权利?维护自己免受像终止电力供应这类残酷无情的惩罚权利?

唐 · 米歇尔在一个短剧中,曾对未来在装配线上从事劳作的蓝领工业机器人的那种危险无聊和绝望无乃的情景作过生动的描述。有人认为对机器人的这种剥削是二十世纪工业化初期人剥削人的一种反映。可是,这些机器人同它们的人类对应物不一样,它们无法申述自己的痛楚。于是产生了这样的问题:“我们怎样衡量价值?用价钱?按需要?凭凝结在产品中的劳动血汗?机器人并不生产劳动价值……没有机械的卡尔 · 马克思拯救它们的命运。”

显然,在讨论机器人权利时,像上述这样一些问题是难以回答的。目前,机器人正以越益增加的速度在装配线和工厂继续代替它的人类对应物。机器人因其高效率、低耗费而正在取代人的劳动。机器人干活快又不知疲劳;更难能可贵的是它们没有家拖累和吃喝医药等问题;机器人的维持费用比较低,它们不会为工资、补贴之类罢工闹事。

首先要提出的问题是:机器人生成的货物和服务在社会上如何分配?这种财富的分配需要对所有权、生产和消费有一个新概念。在一个没有工作的潜在世界上,对财富的某种再分配形式将是必要的。“在瑞士,雇主要像对待他的雇员一样为机器人纳税。在日本,一些公司要替机器人缴纳工会费。”机器人权利的支持者可能会说,机器人正在从它们的劳动中支付这些税款和费用,因此它们应当为这种劳动取得权利。

接着而来的是所有权问题,在不久的将来,可望计算机将开始设计它们自己的软件程序。罗伯特 · 安德森说,“版权法将版权保护权限制在作者的有生之年,这对计算机说显然是不恰当的。因此,为了对非人类作者的程序提供适当的保护,看来可能需要在法律上作些更改。”

法权和法律责任将需要同样地保护人和机器人,这种需要会像环境法一样导致一个机器人法的新的法律专门部门。有了这种新的法律部门,我们便可以找律师为机器人的公民权进行辩护,这种辩护可采取以下方式:“保护超级机器人使不受总的,不可逆转的丧失能力侵害(生命);使机器人摆脱奴役劳动(自由);允许机器人自由选择消磨其辰光的方式(追求幸福)。”

新的案件

届时我们将见到纷至沓来的各种稀奇古怪的案件。有杀害人的机器人,有被人杀害的机器人,有盗窃国家机密的机器人,有被偷窃的机器人;有充当抵押品的机器人,有被扣作人质的机器人,有逾越边界贩卖毒品的机器人,有非法偷越国境的机器人。一般说,机器人损坏东西或伤害人,或者机器人本身被损害或受到限制时,案件就会发生。此外,为我们节省劳力和照管孩子的机器人将会很快进入普通家庭。这些实体最终可能成为值得我们喜爱和保护的伙伴。

机器人受损害或损害、破坏其他人的法律将引起各种各样的复杂问题。目前,机器人损害只是一种民事侵权案件,就像人的汽车被损害一样。但是有一天,一位代理人必定会出来说机器人有无可估量的价值,机器人不是汽车。它会说话,它爱人而又受人爱。机器人像人一样也会受侵害。在这种情况下,我们将需要有适用于机器人的特别侵权行为法。今天的法制尚未考虑到机器人犯罪的这种发展趋势。最近,《发病率与死亡率每周报道》首次引用了一则机器人伤人命的消息。“这个事故发生在密执安公司的一位机械师进入一机器人工作区的瞬间。显然是由于编制程序时没有考虑到人的大意因素,导致了机器人用它的手臂将机械师活活地卡死在屋柱上的悲剧。”这个案件被认为是个工业事故,要是机器人有良好的视觉和周全的程序,这个事故本来是可以避免的。为了防止机器人对人的伤害,在将来,机器人的立法可能需要类似I · 阿西莫夫的《机器人学的第一条法律》那样的法律。可以把这些法律译成密码输入机器人的存储器,如果发生冲突,机器人必须立即终止自己的行为。而且,我们不难设想一个机器人将必须在一个人和许多人之间作出选择的情况,或者不难想象它自己的终止作用可能引起对人的伤害情况,这些问题和冲突对程序设计师、法制和机器人本身都将是一种挑战。

—旦机器人体内的计算机开始能根据外部刺激编制自己的程序,机器人就有可能不顾人们早先安排的程序开始犯罪作案。如果机器人会犯罪,那么就会产生一系列棘手的问题,“机器人会不会存心犯罪?应当怎样惩罚机器人?给它重新编制程序就足够了吗?将它肢解了事?或是处罚它的所有人、设计员、制造者和程序编制者?”

这样一些问题还带来了一系列同机器人有关的刑事审判问题。为了适应这类案件的需要,许多法庭程序将需加以修改。随着充当机器人证人或为鉴定人提供证言的机器人的发展,这种形势将会加剧。

电子司法机关

这种司法机关和法律制度的未来同发展中的形势有关在下一个五十年,法院可能由计算机 - 机器人管理。法官面临一大堆迅速扩大的承办案件,在那里,他们必须分析法律文件,调解申辩纠纷,决定判决,必须熟悉社会、经济和政治方面的问题和担任法院的行政官员。由于法庭继续要充任政治的、社会的决策人,法官必须应付一些复杂的科学技术问题。评论家谈到这种情况时说,“在核物理学、毒物学、水文学、生物技术或大量其他专门知识方面训练有素的法官少得可怜,或者说甚而连这方面的背景知识也不了解为了做好决策工作,应当把计算机技术具体地应用到审判程序中去。

第一步是法官利用计算机帮助他们找出适合目前案情的最恰当的判例。法律推理机器人的发展对法官的公正判决能起得力的助手作用,由于计算机越来越变得精确化和多功能性,它们能更好地适应法律、判决和案情方面的复杂情况/法律推理机器人能作为知识的存储库,为司法人员提供法律的一般参数……协助他们在推理过程中作出必要的结论。”作为逻辑定向指南和大容量知识库的法律机器人,由于具有瞬时检索法律事实、案例和程序的能力,对加快法院诉讼程序,最大限度地减少基于法院误判的申诉案件和防止司法中的行私舞弊会大有好处。

最后,法官可能没有必要了(受理上诉级的法官除外)。那时,法官们可以自由自在地去从事法哲学方面的社会问题研究。当然,在预审阶段人还是需要的,代理人要把法律事实输入计算机,法官可能要监督显示和查找事实。到那时,计算机将能决定案件的结果 · 另外,由于大多数案是协商解决的(只存5%的案件是审判结案的),我们将看到谈判和调解程序的不断发展和完善化。争论的当事人往往站在他们的问题一边,而计算机总是同每一方相互发生作用、因而又助于达成协议。由于计算机能将先前的有关案情同时无保留地提供给争论的双方、它们能使人产生信任感。要是争论者去审问或要求解决某一案件,计算机会告诉他们可以如何解决这种案件(用可能性的措词);就是说,它们只能提供一套两者择一选择和解决办法,此外,人工智能程序,如我们在计算机化心理疗法中看到的,更容易使人消除顾虑,吐露真情,除了机器人 - 法官的智能绘人以深刻的影响外,我们还可能因其外观魅力和指令的权威性而增加对它们的信任。这种魅力和权威性还可能导致人们对这种司法机关的公平性的越益信任。

公平性不是一种给定的东西;它是个政治问题_法律充满着假设和偏见。作出决定是某种权力行为,计算机的使用将使法院系统的权力从法官手中转移到程序设计者的手中。当然,如果法官允许人工智能首次登上他们的法庭的话,他们将会尽最大努力去控制法律和程序设计者。假如机器人学能按预料的那样发展下去,那么我们最后可望看到能针对案情改变它们的程序并提出新解决办法的计算机。如果计算机能发挥创造能力,那么法官和其他专家就必须为他们自己寻找新的任务和目标,最后,有一天,可能出现机器人律师当着机器人法官以及原告被告的面进行唇枪舌剑或讨价还价的场面,虽然这种情况在目前看来是滑稽可笑的。

法律原则

为了更具体地领会机器人的法律未来,我们必须了解将应用于机器人冲突的法律原则,莱曼 - 威尔齐格的关于人工智能定义的文章是有价值的。他提出了各种可能同机器人案件相关的法律原则,包括生产责任、危险动物,奴役性劳动、衰退能力、儿童以及代理方面的内容。

只要把机器人认作是复杂的机器,那么机器人案件总会涉及生产责任的问题。比如一个机器人警卫袭击一位来犯者,不仅厂主会有责任,而且“进口商、批发商、零售商以及修理工、安装工、检查员和鉴定人”也有责任。同时那些生产、调节、运输和使用机器人的人在某种程度上也会有责任,随着机器人责任案命数的不断上升,保险公对机器人保险无疑将会持谨慎态度。而且,我们都想象有一天,厂主会争辩说机器人是活的,公司是没有责任的。他们还会争辩说,虽然公司可能制造过这种机器人,但是这个机器人已经给自己编制过程序,或者说新的主人已给它重编过程序。到时候,争论的结果可能是:应该承担损害费的是机器人,如果它们没有钱,那么,按连带责任法分别负担部分责任的其他当事人应当支付全部费用。

鉴于目前的这种硬件和软件之间的区分,人工智能的生产责任问题尤为突出,譬如,一个机器人杀人谁的责任呢?是手臂制造者的责任?软件设计者责任?还是它的所有主的责任?或者说他们大家都没有责任?我们将会见到没有毛病的计算机保险法吗?

一旦机器人成为会自己移动的,即一当它们能活动时,它们可能引起的危险性就势必增加,现阶段的有关危险动物的法律对机器人可能是适用的。机器人像动物一样,它们会活动并且有智能反应,虽然它们究竟是不是有智力的乃是一个政治、哲学问题。莱曼 - 威尔齐格写道:

“然而生产责任和危险动物侵权行为责任之间差别是相当小的,从形而上学观点看,这种过渡并不涉及量子跳跃。只要把人工智能机器人看作只是机器,那么对它们本质的评价——它们是地道的非有机构——是不会有引起争论的含义的。可是,运用危险动物的这种法律原则却打开了一法学定义的潘多拉盒子,因为这样一来,“机器”将变成一个有意识特性的法律实体,或成为某种类似有自由意志的东西,一旦开始了这种转变,那么法律向“高级”范畴的发展,就会像机器人力量的物理扩展那样成为势不可挡的。总之,从以前的法律范畴到现代的法律范畴的运动是最紧要的一步;今后,法学的进一步演变是不可避免的。”

这里有必要提一下和法权同样重要的人权。法权可以由公共权威判定或裁决。人权往往不能由司法权威判决。如果权利在政治上得而复失,那么,雇佣权、最低基本生活需要权以及联合国宪章从道义上作过明确规定的其他人权都不能得到保障,人权是通过思想斗争获得的。

假定今天世界的这种民族、人类、种族和性别之间的结构占统治地位,那么将应用于机器人的这种法律理论很可能会把机器人看作是奴隶,它们将是我们可资利用和摆弄的东西。正如斯通纳指出的,这自然意味着它们将没有法律地位。奴隶和机器人不能为自己取得某种权益,比如因遭受痛苦索取赔偿费,而提起法律诉讼。犯错误的机器人必须对它们的行为负责吗?或者,那些认为奴隶是懂得其行为意义的所有人将要替奴隶负责吗?如果机器人的厂主或所有人在民事案件中有法律责任,在刑事案件中有罪过,那么他们一定会争辩说;机器人是理解设计意图和设计程序的。倘若这种理由成立,那么机器人就可能继续对它的案件提起诉讼。正如上面所说的,对此将要负法律责任的很可能是程序设计者或他们的设计团体。

惩罚问题也是个难题。机器人既没有钱又没有财。一种办法是把机器人抵当给受损害的一方派用场,另一种办法是淘汰机器人或给机器人重新编制程序。这跟目前关于胎儿的权利的争论——他是活的吗?我们有终止他的权利吗?——可能有类似。还有,谁有权利终止一个已具有人的生命形式或在经济上不再有用的机器人呢?到二十一世纪,我们可能就会看到机器人的人寿保险团体的出现。

菜曼 - 威尔齐格说机器人的另一个范畴是衰退能力,“适用于那些在法律上是独立的、而在犯罪作案时对着手采取行动或理解这种行动的后果缺乏能力的个人。”这里重要的是意图。可是,机器人不会是最愚蠢的种——它们很可能是最有智力的种。成问题的是它们的伦理道德决策。

关于儿童或神童的“高脑力和低智慧”的分类是非常有实用价值的。可是作为一种范畴,对于代理法来说最终还是成问题的。正如莱曼 - 威尔齐格说的:首先,这种普通法在某些方面与仅只作为工具的代理人有关系,代理人本身是否有任何法律能力是不重要的,因为他既然是他的委托人的一种工具,他可以是奴隶、未成年人和精神病患者……“一个没有完全行为能力的人行使代理权是可能的。”其实,自动机和人机这样的术语已被正式地用来描述代理人,就代理人方面说,他也无须有任何形式的责任承诺。……需要权威采取行动或作出处理的唯一要事……是叫一个人告诉另一个人;其他人应按照他的意旨行动和听从他的命令,由其他人承认是没有必要的。因此……一般地说,任何人都可以是代理人,他实际上能履行有关的各种职责,这是为像类人动物那样的历史性新奇事物所特制的一个法律范畴。

代理法确实可能是特设的,可是,假如法律本身在变化,假如在下一个10年可能会出现一种专事审理科学技术问题的科学法庭(缺乏科学技术训练的律师、法官不大可能恰当地理解这些问题),那么预先就考虑人工智能机器人能够理解的法律原则有可能吗?尽管上述的这些范畴——从生产责任到代理权一是探索性的,但是机器人权利的这种富有幻想的看法,无疑会有助于我们思考机器人发展可能导致的(或可能需要的)全新法律原则和未来。

理解机器人权利的另一个透视的、实用的启发法是构筑两个互成直角的连续统,X轴的一端是现在定义的生命——血肉之躯,反映意识和灵魂;另一端是今天人们差不多都这样看待的机器人——由人设计的程序控制的机械电子装置。沿着这如连续统,我们能以机器人的主要部件(人造手足、心脏、眼睛)来想象人和以类似人的反应(创造性、学习能力)来想象机器人。

在Y轴上,我们也可以展开一个权利的连续统。在这个连续统的一端表示总的“人杈”状况,另一端表示无权状态,沿着这连续统我们能想见代表它们自己的机器人和以监护人为代表的机器人。最后,我们能展开一个动 - 静维数和各种经济维数(从家机器人到工业机器人)。把这些维数(血肉的 - 机械的;有权的 - 无权的;动的 - 静的)并连起来并把它们想象成跨时间的,我们就能推想出机器人未来的各种交错情况。

我们能想象有一天,一位勇敢的法学家会重写历史,他会坚持应当在法律上把机器人看作是人。到这一天,将出现一个全新的未来。

结论

技术变化正在以指数速度增长着,遗传工程、激光、空间拓展、远程通讯、计算机和机器人给经济、社会和政治带来了前所未有的变化。不幸的是,个人和社会机构很难同这种变化保持同步。为了尽可能地减小机器人的扩张作用造成的应力,司法、立法机关和行政部门极需在问题到达积重难返以前,对机器人权利的可能发展作出长远的考虑和规划。

我们觉得机器人的权利和责任问题是一种可能发生的事变。考虑这一新领域的权利问题为我们重新认识权利概念及其对全球社会具有的意义提供了一种难能可贵的机会。这个问题又引起了人同他的世界的关系这个更大的问题;它示意我们在观念上需要有一个量变,需要我们对世界的一切事物关系有一个新的理解和评价。这也就是本文的主题思想。

[Futures,1988年4月]