从基因的角度看,人类的基因就像是程序代码,里面已经写好了所有的程序。这些程序包括是男是女,整个脸怎么长,有没缺陷,最高能长多高,等等。不得不说,基因的控制程序经过几十亿年的自然选择之后已臻完美。那些不利于生存的bug基因在一代又一代的生存游戏中不断被淘汰,而对生存有利的基因则一直保持下来并不断改善。
要想制造出一个超人工智能的机器人,最初的代码编写是很关键的。阿西莫夫在机器人系列中提出的“机器人三原则”就像是最初的代码。
第一条:机器人不得伤害人类.
第二条:机器人必须服从人类的命令,除非这条命令与第一条相矛盾。
第三条:机器人必须保护自己,除非这种保护与以上两条相矛盾。
但是写过程序的人都知道,最初的代码又往往是存在许多bug的。比如三原则中人类怎么定义,伤害又怎么定义。人类语言本身就有许多种解释。如果伤害指的是致死的话,机器人完全可以把人类全部变成快乐的植物人;而在种族主义者眼里,也许黑人就不算是人。
就像基因一开始也不是完美的一样,初始程序也不可能是完美的。有一个问题,大自然对基因的选择是没有意识的,而人类对程序的修改是有意识的。这既会使进化进程加快,也很容易导致产生个人的倾向。毕竟,谁不想体验一下当上帝是什么感觉呢。
人工智能每往上发展一个阶段带来的后果都是不可想象的。蚂蚁和猴子差一个阶段,猴子和人差一个阶段。等到超人工智能出现时,他们看人类就相当于我们看猴子,甚至蚂蚁。而第一个达到顶点的人工智能会做出怎样的举动是无法预料的,是大发慈悲让帮助所有人类延长寿命甚至永生,还是像捏死蚂蚁一样灭绝人类,都不得而知。
复制一段基因需要一代人,而复制一段电脑代码一秒钟都不需要。可以预见人工智能的进化比人类要快得多得多得多。超智能机器人并不是遥不可及的。如今我们的生活中已经充斥着弱人工智能的机器了,也许在我们有生之年就能实现超人工智能级别的机器人。但是在人类没有准备好的前提下,我觉得还是不要冒失激进的好,否则可能会陷入灭绝的境地。