人们对于人工智能技术有着层出不穷的想象力:它会不会自演化到与我们为敌?或者挑战人类的独尊地位?抑或最恐怖:为坏人利用?Brian Patrick Green是圣克拉拉大学应用伦理学工程学院马库拉中心校园伦理项目主任助理,他对科学、神学、技术和伦理都很感兴趣。他写过很多关于遗传人类学、认知科学、生物学、伦理学、医学伦理、超人等劲爆话题,著有自己的博客“心灵伦理”,特别专注于人工智能邻域。
今天大家就和小编一起走进他,探讨一下人工智能伦理的话题。
什么是人工智能?
人工智能,英文缩写是“AI”,就是人为建造的类仿人类智力活动的系统。AI将宝贵的人力和创造力从一些不必要的繁琐活动中解放了出来。举个栗子,现在大火的机器学习就是AI的一种。我们只要教会计算机必要的程序算法,数学公式,机器就能在我们的监视下为我们干活,例如自动驾驶和语音识别,有没有很棒棒(*^_^*)。不光自动驾驶和语音识别,AI在处理大数据和建立复杂模型方面,有更牛掰的技术应用。AI潜力无限,需要我们的不断探索和开发
AI为何如此高效?
人工智能使我们更有效率。例如早期电脑ENIAC,这种可编程计算器,可以“秒杀”你用小时解决的问题。现在没有人会认为数学计算器是“人工智能”,但从某种意义上说它们也算是,因为它们可以帮你做数学题。正如计算器在计算上比人类更高效,各种形式的人工智能在其他任务上更加高效。举个栗子,大多数车祸都是人祸——如果驾驶可以自动进行,就可以避免人为错误,每年可以省下剧额损失,避免人员伤亡。人工智能还可以帮助我们解决迄今为止难以解决的问题。例如,就像小编刚才的栗子,非常大的数据集可能包含复杂模型,这一回明显AI比大脑靠谱。总而言之,人工智能正在风口,因为它推动人类社会进步,是资本的新宠儿。
AI可以解决什么样的问题?有没有“后遗症”?
AI的未来很难预测。目前,机器学习主导的推荐引擎,会判断我们可能想要购买什么产品,或者什么样的广告对我们最有影响力。机器学习也可以比人类反应更快,因此在预防黑客攻击或金融诈骗方面大显神通。在未来,人工智能可能会实施更好地个性化教育,就像今天的适应性测试。还可能帮助解决问题例如如何提高能源效率,如何节省资金来保护环境,如何提高医疗保健的效率和预准性,如何在省钱的同时改善健康状况。甚至AI可以想出如何改进法律和政府服务,或者改进道德教育的方法。对于每一个需要解决的问题,人工智能都有用途。
同时,每一枚硬币都有两面。人工智能如果用于黑客和战争,就会带来无尽的痛苦。它可以用来欺骗人民,用错误的道德教育人民。它可以用来探索和利用人们最大的恐惧,使极权政府能够以超出人类历史的方式压迫人民。这些都是理论上的危险,但至少有两个危险是可以肯定的。首先,人工智能需要巨大的计算能力,因此需要能源,这可能导致环境退化;其次,人工智能无疑会导致社会两级分化,贫富分化加剧,同时造成大量失业。
人工智能的机器人会自我觉醒吗?成为“类人类”?
这是一个有争议的话题,可能永远没有答案。人类想建立地球上其他生物的自我意识都非常困难,更不要说AI这种像天外来客的东东。建立非生物智能的自我意识短期内不会发生。但我们几乎可以肯定,在未来十年左右,人们可以制造强人工智能,使我们误以为他们是有自我意识的。“图灵测试”基于这样一种观念,即有朝一日计算机能欺骗人类相信它是另一个人——这是人工智能开发者的终极目标。
当我们最终无法区分人类和AI时,是否应该改变我们对AI的看法?辩证来看,如果我们接纳AI,可能会导致自己的麻木不仁,甚至可能错误地认为它应该被视为一个人,因为它的超强模仿让我们不知道是否在某种程度上它达到了自觉。另一方面,Brian认为这样一种“不真实”的人根本就不是一个自觉的人,正是因为它是被设计的。模拟不是真实的东西。它不是活的,它不会代谢,它可能会被打开和关闭等等。
最后,我们没有能力精确地定义生命和心灵的意义,所以在我们不知道它们真正是什么的时候,试图模仿这些特性,将是一种可笑的努力。
神学家、伦理学家到底在担心什么?
对于AI,最大的担心,不是它觉醒后是否杀了我们(脑补各种科幻电影),或质疑人类的独特性,而是这非常强大的技术将为哪种人所用--善还是恶。现在机器学习用在赚钱上(这本身就在道德上有问题),其他应用程序正在增长。假设,如果一个国家进行军事模拟,告诉他用野蛮的战术赢得战争是最有效的方式,那么他们就很有可能使用这种战术,就像人工智能所指示的那样。如果不这样做似乎不合逻辑,因为不那样做效率会降低。但是作为人,我们不应该把有效率看成就是有道德。做正确的事情有时是“低效”的(不管效率可能意味着什么)。尊重人类的尊严,有时确实带来低效。然而,我们应该做正确的事,就是尊重人的尊严,因为那些道德价值高于效率。当我们的工具使我们生产力提高时,我们需要停下来问问自己,我们想做的事情是否真的是对的。
如果我们的欲望是邪恶的,那么他们会造成巨大的伤害,有效实施人类灭绝(随小编回忆一下电影“星球大战”,如果我们决定玩核战争,或生物,或纳米技术等“游戏”)。即使不灭绝,恶意使用人工智能也可能会造成巨大的危害(例如,电网超载导致全国范围内的停电,或导致所有自动驾驶汽车同时坠毁)。仅仅偶然的计算错误也会造成巨大的伤害,例如,如果机器算法被设定种族偏见的数据,那么它将输出种族偏见的结果(黑色幽默的现实)。
神学家的传统是以道德来评判技术。纯粹效率绝不是唯一的优先,他们认为优先事项应该始终是爱上帝和爱同胞手足。如果人工智能可能会促进这一点(比如提醒我们祈祷,或帮助减少贫困),那么这是一件好事,值得我们去追求。如果它用于相反目的(例如分散我们的信仰,或利用别人),那么应该仔细监管甚至取缔。例如,核武器就应该永远不在人工智能控制之下,这种AI的使用应该被禁止。
最终,人工智能给了我们更好的技术——更好的工具来实现自我。更深层次的问题就变成了“我们想要什么?”甚至是“我们应该想要什么?”如果我们追求邪恶,那么我们将百倍邪恶。如果我们想要善良,那么通过勤奋的追求,我们也许能实现它。在圣经中,上帝将生和死,祝福和诅咒摆在我们面前。如果我们想活下去,我们就应该选择向死而生。