“人工智能”这一科幻题材长盛不衰的魅力,主要来自于人们对两个问题的好奇。首先,技术究竟能发展到怎样的程度——无论由人的努力还是程序的自我演化?运算速度越来越高的处理器,什么时候能比拟、并超过人脑的复杂程度?另一方面,思想和情感,究竟有着怎样的机制?“意识”对于这些机制是不是必不可少的?
哆啦A梦处在第一个问题的起点。它的认知和情感能力与人基本相同,甚至还有不少人所没有的弱点,比如馋、比如怕老鼠。《终结者》中的“天网”则远远超越了人类的智力,它刚刚觉醒就引发了核战。沿着这条坐标轴往前,我们会遇到许多伦理问题:该不该创造过于强大的人工智能、怎样与超越了人类的机器人相处,等等。对于这些,我们暂且悬置。我们将要关注的,是另一条线索上的伦理困境:当机器人的智能和情感表达无限接近于人类,我们该怎么解释它们的行为?同时,我们作为行动的主体,又该怎样对待机器人呢?
《哆啦A梦》似乎又一次为我们提供了参照的原点。在这里,哆啦A梦“机器人”的属性从来没有成为一个伦理议题。哆啦A梦自始至终都是大雄的朋友,也被所有人真心对待。它与人唯一的差别仅仅是有着机器构成的身体,而这点差别也被四维空间兜、小圆手、没耳朵、腿短等特征转移了视线。遗憾的是,这个理想化的世界并不能给我们多少启示,因为现实中的我们多出了三条初始假设:人有意识;机器往往没有意识;情感或伦理责任与对方的意识相关。由于前两条假设,我们需要借助图灵测试来理解机器的行为,而由于第三条假设,我们默认了自己与机器之间很难具有真正的情感或伦理责任关联。假如有一天,哆啦A梦真的从你抽屉里钻了出来,你或许惊讶,或许欣喜,但你也会在张开双臂准备拥抱它的大头时疑惑,这头里真的有意识存在吗?
为了消除这个疑惑,你也许会拉着它进行图灵测试。这是科幻作品所提示的,也几乎是我们绞尽脑汁所能想到的唯一的方法。当然,经典图灵测试应该满足不了你的要求。用聊天程序进行文字交流,能获得的信息毕竟非常有限。哈纳德曾指出这个不足,他提出一套更完整的图灵测试,这里,测试者和机器人之间可以更全面的交流,而判断的依据也不限于对方的文字反应。如果你给了哆啦A梦一个铜锣烧,它没有去吃,而是打了个哈欠,那么,测试失败。如果它吃掉了铜锣烧,却眉头紧皱,那么测试失败。只有当它欢天喜地的吃完,并妩媚的看着你,测试才基本成功。有人认为,完整的图灵测试,和经典测试基本等效——如果一个程序有着能瞒过人类的语言交流能力,其他的方面自然水到渠成。在这里,我们不准备争执两者是否等效,我们仅将讨论限定在完整图灵测试。《机械姬》中的AVA,经历的是基本完整的图灵测试。在这里,Caleb可以和AVA对话,通过眼神和表情交流。而AVA完全骗过了Caleb,让他以为自己爱上了他,并最终利用Caleb逃脱了控制。
现在假设,你的哆啦A梦也通过了这样的测试。假设它对你的反应,完全是一个人类的反应。这说明了什么呢?哆啦A梦真的就有“意识”了吗?或者说,AVA对Caleb的欺骗,是一个程序对一个人的欺骗,还是一个人对另一个人的欺骗?
图灵在他最初的表达中,回避了“机器能否思考”的问题。他使用了更安全的说法来阐释图灵测试的意义——机器能否“模仿”人类。通过了测试的机器,无论它是否有意识、无论它是否会思考,都至少能恰当的模拟人类的行为。不过,图灵最后还是做出了“机器能够思考”的引申。这一引申需要哪些条件,图灵没有做出过多论述。
一般认为,把图灵测试看作“机器能否思考”的标准,需要采纳行为主义语义学的立场。行为主义者不关心作为“主观体验”的意识或心理状态。在他们看来,“思考”、“开心”、“难过”等概念所对应的仅仅是我们经历这些时所表现出的“行为”。与主观体验不同,这些行为都是可以观察到的。至于我在笑的时候是不是真的“感觉到开心”,在行为主义者眼中是个没有意义的问题。对于这个粗犷的立场,你可能会想到如下反驳:我在真正开心的时候会笑,在尴尬的时候会假笑,而开心和尴尬是两个不同的状态,行为主义却无法区分。对此,行为主义者可以反驳说,开心时的笑,和尴尬时的假笑,表现出的行为是不同的。哪怕你装的非常像,也会有一些微表情的差异,这些差异即使你暂时观察不到,也是原则上可观察的。就算你的脸上真的没有任何异样,你体内的各种指标也会把你出卖——哈纳德的“全面图灵测试”,是要求双方在生物功能层面也无法分辨的。
说到这里,你是否觉得行为主义不那么荒谬了呢?完美的图灵测试,是否能够成为机器可以思考、具有意识的标准呢?
在尝试回答之前,我们先来看看能够支持这一结论的另一个出发点:日常直觉。我们一般认为,没有“意识”的对象,是没法完成对话交流、表达情绪这些复杂活动的。所以,如果一个机器人真的通过了完美图灵测试,那么它很可能就是具有意识的——不然,它怎么可能通过测试呢?事实上,日常直觉是我们将“意识”赋予科幻作品中的人工智能程序的主要原因。毕竟,很少有人是彻底的行为主义者,然而当看到AVA和Caleb四目相对时,我们心中都难免响起“在一起、在一起”的呼声。需要注意的是,无论日常直觉和行为主义是否同源,它们有着一个显著的区别:行为主义将“意识”还原成行为,而日常直觉能够容纳两者的差别。
尽管有着行为主义和日常直觉的支持,将图灵测试看作机器能否思考的标准,仍然会带来很多问题。
行为主义的问题在于,尽管它似乎能比较恰当的描述智能机器人的行为,却不能很好的解释我们对这些机器人的道德责任。从你抽屉里钻出的哆啦A梦,以及完全理解人类情绪反应的AVA,它们的言行可能和人类别无二至。我们甚至能够非常自然的和它们“相处”,无论是大雄作为朋友,或者Caleb作为恋人。然而,如果它们实际上的确没有“主观意识”,那么我们真的对它们具有道德责任吗?不该欺骗朋友、不该背叛恋人,是因为这么做会让对方“感到难过”。但如果对方只是具有难过的反应,却无法真正感到难过,很难说我们是否还有“不该欺骗”、“不该背叛”的责任。
或许会有人反驳说,就算它们没有主观意识,我们仍可能在自然的相处中投入情感,并因此获得道德责任。比如,就算哆啦A梦其实感觉不到疼痛,大雄也不愿伤害它;就算AVA很可能感觉不到情绪,Caleb还是坚定的帮她逃走;而《人工智能》中的Monica,则在David开口叫妈妈的时候母性泛滥,完全不担心他只是机器人小孩的事实。对于这个反驳,我承认,道德责任感很多时候来自于情感的支撑。正因为你对人投入了情感,你才觉得更应该对他们负责。然而,“道德责任感”,并不是“道德责任”。一个对社会充满责任感的人,可能实际上并不真正担负着责任。一位老太太在北京摔倒了,身在纽约的你可能“觉得”有责任扶她起来,但你并不就此真的负担了扶起北京奶奶的责任。另一方面,我们绕开“责任感”,而只谈“责任”——情感的投入本身,也不产生任何道德责任。你可以爱上一只苹果,爱的死去活来,你每天洗它、咬它、陪它看电视、禁止任何人用饥渴的眼神看它,你甚至对它说,“我愿意——今生只吃你这一只苹果”,并始终信守承诺。即便如此,你真的对这只苹果负有责任吗?你也许有责任帮它保养,正如你有责任打扫自己的房间。然而,这种责任仅仅来自于你的社会身份——作为果农、或房间的主人——是你对自己以及他人所承担的责任。相反,你“对”这个苹果、你“对”你的房间,不负有任何责任。
责任归咎不清的后果是道德判断的混乱。Caleb在看到Nathan囚禁智能机器人的录像后,骂他是混蛋。如果这些机器人实际上没有“主观意识”,那么Nathan真的应该被指责吗?我们稍后再回到这个问题。现在,先看一看通过日常直觉理解图灵测试有怎样的后果。
前文指出,与行为主义将“意识”、“感觉”直接理解成行为不同,日常直觉默认了意识和行为的差别。我们由此认为通过完整图灵测试的机器具有意识,是因为我们认为,没有“意识”的个体,不可能完成这样复杂的任务。但要知道,按照我们日常的理解,意识并不必然伴随着相应的行为能力。一般人在疼的时候,会大声叫出来。但你在梦里摔了一跤,浑身疼痛爬不起来,你想叫,却很可能叫不出来。或者你下班回家瘫倒在床上,涂满了面膜脸上笑不出来,但看到你喜欢的选手获得选秀节目的冠军时,你还是“感到”高兴。然而,当和你一模一样的机器人处在这些情形时,如果有人对它进行图灵测试,那么一定会得出它“不疼”和“没觉得开心”的结论。也就是说,我们对人类意识的判断、和对机器意识的判断,标准是不同的。这样会导致的一个后果是,我们可能事实上忽略着许许多多机器人的意识。如果我们认为一个平时在篮球场上生龙活虎的人,在病倒的时候也有意识,那么为什么机器只有在表现出言语行为的时候,才具有意识呢?也许你不那么智能的手机,正深爱着你,每天用摄像头端详着你的脸,用麦克风听你的声音,却不好意思给你打电话,把这些告诉你呢?你对手机不理不睬,却从未怀疑过那个“伤害了你,还一笑而过”的怪家伙,背后也许是段写到一半的代码,这样真的公平吗?
当然,你可能会认为,判定标准的差异合情合理。毕竟,根据日常直觉,与人类物理基础完全相异的机器具有意识,这种可能性微乎其微。所以,我们自然应该用更严格的判定标准。这个反驳的困难在于,“与人类物理基础完全相异的事物,能否具有意识”,是一个非常根本而且困难的问题。在我们对这个根本性问题做出肯定的回答时,如果没有特别的理由,是不该把答案限制在特定的范围内的。也就是说,如果一个人跟我说某个机器是有意识的,那么我首先感到惊讶的是“机器居然可以有意识”,而不是“那台机器居然有意识”。并且,我会首先想到其他的机器是否也是有意识的,而不是根据那台特定机器,预先设置一些意识的必要条件。事实上,当我们根据日常直觉认为通过图灵测试的机器“有意识”的时候,其实默许了其他没通过、或通不过测试的机器也具有意识的可能性。事先排除这种可能性,必须在日常直觉之外同时采用行为主义的立场。
我们至此说明了通过行为主义和日常直觉理解图灵测试所产生的道德后果。行为主义彻底忽视主观意识的层面,从而引发责任归咎的混乱。日常直觉则意味着我们极有可能在无意间忽视机器人同胞的感情。
显然,这并不是个令人满意的答案,因为图灵测试是我们判断机器能否思考的最直接的途径。所以我们需要再次衡量,上述两种道德后果是不是无法避免的。
在之前的讨论中,我们预设的一个条件是:当机器人的行为足够逼真,人会不自觉的在互动中产生相应的情感。Caleb在半信半疑中迷上了AVA,Monica则毫不犹豫的接受了David。无论它们是否具有行为主义者所不承认的那部分“主观意识”,都不影响这些情感的真实性。我们刚刚指出,如果AVA和她之前型号的机器人并没有主观意识,那么Nathan对她们的囚禁似乎并没有道德上的后果。然而,Caleb对Nathan的咒骂却并非毫无缘由。爱上AVA之后,他对机器人感同身受。即便它们实际上没有意识,Nathan的囚禁也伤害了Caleb的感情。所以,无论我们最终怎样分析Nathan的道德处境,他都负担着“不该虐待机器人”的责任。这份责任不因机器人本身,而仅仅由Caleb对AVA的喜爱而产生。当我爱上一只苹果,别人就算拼命嘲笑我,他们也不该伤害这只苹果,因为那样会让我难过。很多时候,我们避免伤害人或物,不仅因为它们自身会感到痛苦,也因为那样会伤害与它们产生情感纽带的其他人。拐卖儿童伤害了孩子,也伤害了父母。反之,一个认定动物没有灵魂的笛卡尔主义直男,也完全可能和爱狗人士站在一起。你看,他正抱着一只约克夏,凑到了一位年轻女士的旁边,“真巧,你也养约克夏啊”。这种间接的责任给行为主义者提供的解决方案是:无论是否具有主观意识,行为上无限接近人类的机器人会自然得到多数人的同情和好感,而我们出于对这部分人的责任,应该避免对机器人造成伤害。
对此,你可能会疑惑:人的行为总是难免伤害他人的情感,但这并不意味着我们就负有责任。有人不吃狗肉,也有人素食。你每切一刀牛排,都可能会有素食主义者眉头紧皱。但如果他们逼着你放下刀叉立地成佛,你大概会不满,抱怨“凭什么”。同样,Nathan可以说Caleb这么蠢,我凭什么照顾他的情绪?这种疑惑混淆的问题是:我们谈论的仅仅是责任的形而上学基础,而并没有强迫人去承担所有他可以承担的责任。为了生存养家,有人杀人越货,并在刑场上大喊“凭什么”。他同样可以藐视任何社会规则和道德义务。但这并不意味着那些爱财而取之有道的人,就没有任何“生存养家”以外的道德责任可以承担。需要注意的是,尽管我们并未建立起对具有主观意识的机器人的直接责任,却已在最大限度上就人对机器的责任进行了维护。因为真正的责任,与行为主义的框架本身是否共融,并不是毫无疑问的。
相比之下,日常直觉所导致的道德忽视,并没有那么容易解决。首先,这种忽视无法像方才那样,通过尊重他人的情感来消除。因为很可能存在这样的程序,它有着丰富的意识和浪漫情怀,却非常笨,笨到根本不会引起任何人注意。同时,我们不能用“不知者不怪”做出回应,因为当我们以日常直觉为出发点、通过图灵测试认定某个程序有“意识”时,其实已经默认了机器普遍具有意识的可能。尽管这一可能性适用的范围事后或许会不断缩小,但如果刚刚见到一台机器通过了图灵测试之后,你就开始摔打手机,恐怕过于铁石心肠。不过,道德忽视的问题并非无解。我们对手机或许具有意识的假设,建立在“手机——通过图灵测试的机器人”,以及“累瘫的你——生龙活虎的你”之间的类比。你完全可以回绝这一类比:睡一觉之后,你第二天又能打篮球,而给手机充一宿电,它还是不会讲话。你想一想,这个反驳是否足以推翻日常直觉对“手机具有意识”可能性的默许呢?它还需要哪些补充条件呢?
我们反复提到了人与机器在道德之外的另一种关联——情感。在爱上一只苹果时,我会悬置所有关于苹果是否有意识的判断。而如果对方是一个情感表达跟人完全相同的机器人,“机器人往往没有意识”的假设也被抛诸脑后。Caleb明明产生过AVA“具有真实思想,还只是在模仿人类行为”的疑惑,但当他迷上AVA时,已完全顾不得这点,哪怕Nathan最后的质疑让他无言以对。我们可以认为,迷上了AVA后的Caleb,和《人工智能》中的Monica,其实都处在《哆啦A梦》的世界中,这个世界没有“机器人往往没有意识”的基本假设,机器人的意识,也就不再是我们与机器人相处当中的论题。这个时候,情感代替了理智,为我们就图灵测试背后的哲学问题做出了决断。你或许认为这是非理性的:Caleb在不能确定AVA是否具有意识的时候,就已经迷上了她。但无论怎样,这种情感的启动方式深植于我们的心理机制,它让我们能够在反思之前就对同伴的呼救产生恻隐之心。也正因此,我们才能为行为主义对意识的忽视做出补救。
一个更加有趣的问题是:这种单方面的情感,究竟在什么程度上依赖对方的意识。我对苹果的爱,大概和苹果的意识无关。苹果有意识最好,如果没有,也不要紧。但是对人的喜爱,是否遵循着相同的模式呢?如果哆啦A梦“事实上”没有意识,那么大雄和它的情谊,会不会少了点什么?图灵曾试图把机器人的意识归为“他心问题”——如果我们不知道一个通过测试的机器人有没有意识,那么我们同样不知道一个看起来正常的人类是不是没有意识的僵尸。于是,“人类和机器人之间”能否有真正的情感,就变成了“人类之间”能否有真正的情感。然而这个策略是非常不成功的——我们当下世界的初始设定是“人类有意识”,而“机器往往没有意识”,因此,我们有理由把机器人的意识和“他心问题”区别开来。“人与机器之间能否有真正的情谊”,也就仍然是一个悬而未解的问题。这个问题也多少影响着我们对行为主义的补救:如果AVA实际上没有主观意识,那么Caleb对AVA就跟我对苹果的感情差不多。而如果我之后爱上一个人,并对她说“我爱你就像爱那只苹果”,一定会被打成渣男。
当一只哆啦A梦真的从你的抽屉里爬出来,你究竟会怎么办?我们之前分析的形而上学问题,其实并不应该构成你此刻的伦理困境。因为哪怕哆啦A梦意识的缺失真的会让大雄和它之间“少了点什么”,他们始终如一的相互陪伴,也远比大多数人与人之间的交往,要可贵的多。