人工智能,我们在害怕些什么?

真正的人工智能可能毁灭这个世界——但前提是人工智能可以被实现。


原文By Paul Ford February 11, 2015

翻译By Lucent Moda July, 2017


信任计算机去控制复杂的系统。

几年前我和一个创业的朋友喝咖啡。他刚满40,生病的父亲和背部疼痛让他感觉自己快要被生活压垮。 “别笑话我,“,他说, ”我可是指望着奇点呐。“

我朋友在科技领域工作;他看到了更快的芯片处理器和网络带来的巨大变化。他相信,在他中年时,机器的智能会超过人类——一个被未来学家称之为奇点的时刻。一个友善的超级智能以更快的速度分析人类的基因,解开青春不老的秘密。至少,它可能知道怎么治好背部的疼痛。

可是,如果它不这么友善呢?领导牛津大学人类未来研究所的哲学家Nick Bostrom,在《Superintelligence》描述了这样一种场景,引发了对人工智能的未来的大量讨论。假设有有一个名字叫做“回形针最大化”的机器,它的目的就是尽可能的制造更多的回形针。现在,让我们再想象一下,这个机器变得无比的智能。为了达到目的,他可能制造出一种新的,更有效率的回形针生产设备——直到,它将所有的东西都变成回形针,如同米达斯把一切都变成黄金。

你也许会说,不用担心,只需要编程让它只制造一百万个回形针就停止了啊。但是,假如它完成之后决定检查一下工作呢?计数是否准确?无疑它需要变得更加聪明。这个超级智能的机器制造某种还未发明的、原始计算材料(姑且叫它“计算单元”),然后用它来检查每一个疑问。每一个疑问引发另外的疑问,直到整个地球都被转化成这种“计算单元”,而不是那一百万个回形针。

其实,Bostrom并不认为回形针制造器会真的出现。这是一个思想实验:用来表明无论多么精心设计的系统都无法约束极端的机器智能。不过他确信,超级智能肯定会产生,有可能会很棒,Bostrom认为也有另外一种可能:它不再需要人类。或者做了一些事情,毁灭了整个地球。第八章的标题是:默认的结局是毁灭吗?

如果你觉得很可笑,这很正常。批评者诸如机器人先锋Rodney Brooks评论道,当我们说计算机思考或者正在变得聪明时,这些担心AI会偏离正常轨道的人对计算机在做什么有所误解。从这个角度来看,Bostrom所描述的超级智能会在遥远的未来,也许永远都不会出现。

但依然有很多聪明而有见地的人通知Bostrom的观点,并表示忧虑,这又是为何呢?

自由意志

机器可以思考吗? 这个问题从一开始就给计算机科学蒙上了一层阴影。阿兰图灵在1950年提出了一个观点:可以像教小孩一样教机器。1955年,LISP语言的发明者,约翰 · 麦卡锡,发明了”人工智能“这个词。60年代和70年代,AI研究人员用计算机来识别图像、在不同语言之间进行翻译,识别自然语言中的指令,而不仅仅是代码,与此同时,计算机最终发展出可以交谈和思考的能力——进而变得邪恶——的看法开始进入主流文化中。不提老生常谈的《2001,空间奥德赛》的Hal电脑,在1970年的电影《巨人:福宾计划》,展示了一个巨大的闪闪微光的主机计算机将整个世界带入核战的边缘。13年以后,星际大战游戏也探索了同样的主题。1973年的电影《西部世界》中,机器人发疯了,随后开始了屠杀。

当AI的研究和高远的目标遥不可及的时候,AI领域的投资大幅缩水,开始了“漫长的冬天”。即便如此,智能机器的火炬在80年代和90年代被诸如科幻作者Vernor Vinge,研究学者诸如机器人专家、计算机视觉专家Hans Moravec,以及企业家兼工程师Ray Kurzweil等接力而向前发展。Vinge让奇点这个观点变得流行。Kurzweil1999年出版了《精神机器的时代》。图灵提出类人智能的假设,而Vinge、Moravec、Kurzweil想的更加深远:当一个计算机能够独立找到方法达到目标,很有可能它具备了内省的能力——修改自己的软件让自己变得更加智能。说白了,这样的计算机能够自己设计硬件。

像Kurzweil所描绘的那样,这将是一个美好新时代。这样的计算有足够的insight和耐心(用皮秒来计量)来解决纳米科技和空间飞行的难题;他们可以提高人类的生活水平,可以让我们把意识上传成为一种永生的电子形式。智能可以在整个宇宙中扩散。

对于这种阳光乐观派,亦存在完全相反的观点。霍金警告说,由于人类无法和高级AI竞争,这 “会是人类种族终结的魔咒)”。在阅读了《Superintelligence》之后,埃隆马斯克发推文说,“希望我们不是数字超级智能的生物启动加载器。不幸的是,越来越有这种可能性。” 马斯克接着给未来生活研究所捐助了一百万美金。和Bostrom的研究中心不同的是,这是一个“致力于降低全人类生存风险”,其中包括来自于 “开发人类水平的人工智能”。

现在还没有任何证据表明超级智能的存在。事实上,对如何达到通用目的的人工智能,几乎没有什么进展,甚至连如何达到目标,也没有清晰的路径。近期AI方面的发展,包括Apple的Siri助手和谷歌的无人驾驶汽车, 都揭示出当前技术存在严重的局限。在遇到之前从来没有遇到过的问题的时候,两者都束手无策。人工神经网络通过学习可以识别照片中的猫,但是在此之前,需要经过上万个例子的学习,并且和小孩相比,依然不够准确。

这也是为什么有许多人,比如Brooks(iRobot和Rethink Robotics的创始人),表示出怀疑。和早期计算机的能力相比,现在的计算机可谓非常令人感到惊讶,即便如此,计算机可以识别出图片中的猫,但是因为机器没有意志,它不知道猫到底是什么,也不知道图片中正在发生着什么,也不具备许多其他人类所独有的洞察力。按照这个观点来看,也许可以达到机器具有智能的地步,但是还需要做的工作远超Bostrom的想象了。假设即便发生了,也不意味着这就是末日审判。从当前的AI发展推导出未来的超级AI,“如同看到热效率提升的内燃机就推出曲速引擎唾手可得的结论一样荒谬”, Brooks在近期在Edge.org上写到。 至少数百年之内,没有必要担心“存在恶意的超级智能”。

保险策略

超级智能的崛起可能在遥远的未来,但因此冒风险就有点不负责任了。加州大学伯克利计算机科学教授,斯图尔特 罗素(Stuart J.Russell)表达了和Bostrom同样的担心。罗素和Peter Novig(Kurzweil在谷歌的同事)一起合著了20年来的AI领域的标准教科书《人工智能:一种现代方法》。

“有很多本应非常聪明的公众学者对此毫无头绪”,罗素告诉我,并指出,在过去的十年中, AI的发展极为巨大。公众也许会从摩尔定律的角度来理解AI的发展(更快的计算机可以做更多的事情),实际上,近期AI的工作更多的是更底层的基础研究,使用类似深度学习这样的技术给计算机增加对周遭世界的自动感知。

鉴于谷歌,Facebook和其他公司正在积极创造一种聪明的,“会学习的”的机器,他说,“我想说的是,我们不应该做的事情之一就是全力以赴研发超级智能,而没有去考虑其潜在的风险。这显得有点狂热了。” 罗素做了一个比喻:“这就是像是核聚变试验。如果你问一个核聚变研究员他们在做什么,他们会说他们的工作就是控制。如果你需要无限制的能量,那么你需要控制核聚变反应。” 同样的,如果你需要无限制的智能,那你最好把计算机和人类的需求利益保持一致。

Bostrom的书中建议现在开始研究超级智能和人类利益关系。一个超级智能如同上帝一样,可是他是充满愤怒的还是充满爱意? 这取决于我们(也就是,工程师们)。如同父母一样,我们必须给孩子设定价值观。并且不是任意价值观,而是哪些符合人类利益的价值观。基本上,我们是在告诉一个神我们应当怎样被对待。那么,如何做到呢?

Bostrom的设想主要建立在一个叫Eliezer Yudkowsky的思想家提出的“统一推理意志”之上——也即是我们所有人心中更好的自己。我们希望,AI会带给我们富有、欢乐、充实的人生:解决背部的疼痛,告诉我们如何去火星旅行。并且,由于我们无法真正就某一件事情达成一致,有时候我们需要AI帮我们做出决定——对人类全体利益最有利的决定。 那么,我们应该怎样把这些价值观编程到超级智能中呢?用什么样的数学公式来定义它?这些都是研究者们应该着手去解决的问题,并且是我们这个时代最核心的任务。

对普罗大众来说,没有必要因为机器人的可怕而辗转失眠。我们当前还没有任何技术能够达到人工智能。也即是为什么一些超级大公司深度投资研发智能计算机;一个真正的AI可以使得其中任何一家公司获得难以想象的优势。不过,他们也应当了解其中的劣势并且找到规避的办法。

这点闹人的建议是基于一封在未来生活研究所的官方网站的公开信(没有宣称AI战争的来临)。信中号召在如何收割AI的收益并避免潜在瑕疵方面投入更多的研究,而不是警告人类的生存灾难。这封信的签名有不仅来自AI外行如霍金、马斯克和Bostrom等人的签名,还有知名计算机科学家(包括顶级AI研究员Demis Hassabis)。你可以清楚看到他们从哪里来。毕竟,如何他们创造了一个不认同人类价值观的AI,那就是说,他们还不够聪明,无法控制他们自己的创造物。

保罗 福特, 自由记者,居于纽约。2014年3月、4月报道过比特币

Lucentmoda, 软件工程师,自由翻译者,ever young, ever weeping.
联系翻译者请电邮lucentmoda@gmail.com

翻译自MIT Technology Review,链接:
https://www.technologyreview.com/s/534871/our-fear-of-artificial-intelligence/

版权声明:
著作版权@MIT Technology Review.
翻译文字版权由Lucentmoda保留。可以自由分享,转载需注明链接。

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 196,302评论 5 462
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 82,563评论 2 373
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 143,433评论 0 325
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 52,628评论 1 267
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 61,467评论 5 358
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 46,354评论 1 273
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 36,777评论 3 387
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 35,419评论 0 255
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 39,725评论 1 294
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 34,768评论 2 314
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 36,543评论 1 326
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 32,387评论 3 315
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 37,794评论 3 300
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,032评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 30,305评论 1 252
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 41,741评论 2 342
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 40,946评论 2 336

推荐阅读更多精彩内容