今年11月17日,美国波士顿动力公司在YouTube上发布了一段视频。视频中,人形机器人“阿特拉斯”先走“梅花桩”,再跳跃转体,最后以一个技惊四座的后空翻收场,举世震惊,引起议论纷纷。
看着机器人潇洒地完成了这世间绝大多数人都完不成的动作,联想起前段罗胖讲过的一期节目——人类灭绝的一种可能,心里不由咯噔一下。
实际上,在单一思维方面,人工智能早已超过人类许多,我们也早已习惯,但是,对于运动智能尤其是人型机器人的运动能力从无到有,短时间内猛然超过人类,我们还很不适应。它空翻的那一瞬间,好似灵魂附体,忽然活了,让人直冒冷汗。有人质问,我都不会后空翻,他一个机器人凭什么会?
客观来说,这种运动能力超强的人型机器人,与前期战胜柯洁的阿尔法狗,本质上没什么太大区别,都只能在某个领域横行,某一方面超过人类。
按照人工智能的实力,科学家将其分为三大类,弱人工智能、强人工智能、超人工智能。
弱人工智能是擅长于单个方面的人工智能,比如,有能战胜象棋世界冠军的人工智能,但是它只会下象棋,你要让它去炒股票,它就傻眼了。“阿特拉斯”只是这样一个弱人工智能。
强人工智能是指在各方面都能和人类比肩的人工智能,人类能干的脑力活它都能干,能够进行思考、计划、解决问题、抽象思维、理解复杂理念、快速学习和从经验中学习等操作。
而超人工智能,在几乎所有领域都比最聪明的人类大脑都聪明很多,包括科学创新、通识和社交技能,它可以是各方面都比人类强一点,也可以是各方面都比人类强万亿倍的。为什么人工智能这个话题这么火热,因为,人类永生或灭绝,就取决于我们造出什么样的超人工智能。
我们现在所在的位置,是一个充满弱人工智能的世界,垃圾邮件过滤器、谷歌翻译、地图导航、无人驾驶汽车,拆弹机器人,这些都是弱人工智能。虽然现在的弱人工智能没有威胁我们生存的能力,但是,弱人工智能的生态正在变得更加庞大和复杂。
创造强人工智能比创造弱人工智能难得多,我们目前还做不到,但是,科学家们认为,这是迟早的事,而且就在本世纪,最早在2040年,最晚不会迟于2070年。更可怕的是,从强人工智能到超人工智能的转化,会比弱人工智能到强人工智能快得多。
例如,一个人工智能系统花了几十年时间到达了人类脑残智能的水平,而当这个节点发生的时候,电脑对于世界的感知大概和一个四岁小孩一般;而在这节点后一个小时,电脑立马推导出了统一广义相对论和量子力学的物理学理论,而在这之后一个半小时,这个强人工智能变成了超人工智能,智能达到了普通人类的17万倍。
这个级别的超级智能不是我们能够理解的,就好像蜜蜂不会理解凯恩斯经济学一样。在我们的语言中,我们把130的智商叫作聪明,把85的智商叫作笨,但是我们不知道怎么形容12952的智商,人类语言中根本没这个概念。
但我们知道的是,人类对于地球的统治教给我们一个道理——智能就是力量。一个超人工智能,一旦被创造出来,将是地球有史以来最强大的东西,而所有生物,包括人类,都只能屈居其下——而这一切,有可能在未来几十年就发生。
目前,我们对超人工智能的认识,大多还停留在电影电视或书本小说里,它有好的,有坏,有的还被人类干掉了,但这只是人类认识水平里的形象,只是被我们给拟人化了的形象,让我们对它少了畏惧,不少人甚至期盼它的出现。事实上,超人工智能虽是生命,却不是生物,它与人类之间的差别,甚至比蜘蛛与人类更大,更加异己。我们没有办法知道超人工智能会做什么,也没有办法知道这些事情的后果。
超人工智能是一种活着的生命,一旦生出来之后,就会拥有自己的逻辑。它会成长,它会复制,它会繁殖,它会学习,它会改进。当世界上第一个超人工智能出现时,最可能的情况是这个系统会立刻意识到作为这个世界上唯一一个超人工智能是最有利的,时间上的优势会让它选择扼杀一切其他对手,永远统治这个世界,不管在它的统治下我们是走向永生还是灭亡。所以,我们人类作为它的亲爹亲妈,其实我们只有一次机会去定义它,就是在起点上我们把它设计成什么样。
然而,我们人类不是上帝,任何一种设定设计都是有BUG的,在超人工智能面前,这些漏洞都是致命的。
我们要让一个人工智能的价值观和我们的价值观相仿,然后给它设定一个目标——让人们快乐。当它变得足够聪明的时候,它会发现最有效的方法是给人脑植入电极来刺激人脑的快乐中枢。然后它会发现把人脑快乐中枢以外的部分关闭能带来更高的效率。于是人类全部被弄成了快乐的植物人。如果一开始的目标被设定成“最大化人类的快乐”,它可能最终先把人类毁灭了,然后制造出很多很多处于快乐状态的人类大脑。当这些事情发生的时候,我们会大喊“擦,我们不是这个意思呀”,但是那时已经太晚了。系统不会允许任何人阻挠它达成目标的。
如果你设定一个人工智能的目标是让你笑,那它的智能起飞后,它可能会把你脸部肌肉弄瘫痪,来达成一个永远笑脸的状态。如果你把目标设定成保护你的安全,它可能会把你软禁在家。如果你让他终结所有饥荒,它可能会想:“太容易了,把人类都杀了就好了。”如果你把目标设定成尽量保护地球上的生命,那它会很快把人类都杀了,因为人类对其它物种是很大的威胁。
而且,超人工智能会想尽一切办法,去实现它原本的被设定的目标,当机器达到了一定程度的智能后,它会意识到如果不自保就没有办法实现原本设定的目标,所以,除去对它生存的威胁就变成了它的手段目标。它知道人类可以摧毁它、肢解它、甚至修改它的代码。这时候它会做什么?理性的做法就是毁灭全人类,它对人类没有恶意,就好像你剪头发时对头发没有恶意一样,只是纯粹的无所谓罢了。它并没有被设定成尊重人类生命,所以毁灭人类就和扫描新的书写样本一样合理。
人类的科技就像是一筐子球,三种颜色,一种白色,一种红色,一种黑色。白色很多,红色很稀少,黑色的球只有一个。那白色的球就是有益于人类的那些科技成果,那几百年来我们不断地捡,捡到的都是白球。偶尔我们能够捡到一个红球,红球就意味着对人类的生存和发展有危害,我们真就捡到过一个核武器。可是这个筐子里只有一个黑球,只要捡到就是人类灭绝。那人工智能就极有可能是这个黑球,而且,极有可能就被我们这一代人捡到。面对我们子孙后代在历史深处的呻吟,我们这一代人不得不十分小心。
当我们心心念念要比对手更快到达目标,要创造更聪明的弱人工智能系统,为每一个更强的智能而欢呼时,当我们向第一个强人工智能全力冲刺,步子越迈越大时,需要有人冷静下来思考这些危险,否则,我们每往前一步,都可能是往人类的坟头掬一捧土,直到我们自己把自己埋葬。
参考:谢熊猫君《为什么最近很多名人比尔盖茨、马斯克、霍金都在提醒人们要警惕人工智能》