人工智能会不会最终会取代(灭亡)人类?如果是的话,人类应该怎么做才能逃脱这个命运?12年前,我在高中的时候经常思考这个问题。以当时我的认识水平,当然无法得出非常确定的答案。但是我一向相信大脑的功能不过也就是物质的功能。所以我当时认为,人脑可以做的,机器也可以做。但是人脑进化不容易,机器改进却很容易,所以机器超过人脑是必然的事。除非人能用较弱的智能驾驭机器人,否则人类早晚会被机器人取代。
在大学的时候,我接触了耗散系统理论,认识了万能图灵机原理,阅读了大量神经生物学的书籍。通过这些,我确信人脑的功能并不是非常神秘的。不管是在理论层面还是在实践层面,大脑的功能都可以被机器取代甚至超越。除非理论物理就此停滞不前,否则,在摩尔定律的作用下,人脑的功能一定会被机器超越。同时,我逐渐认识到较弱的智能是不太可能驾驭较强的智能的,即使人类是机器的造物主。
大四的时候,在《复杂性科学导论》一课上,我认识到复杂性的重要。人民大学的陈禹老师在课上提出,一切人造物的复杂性应该都不能超过106个元件。航天飞机的零件数大概是这个量级,所以它的故障率非常高。我开始认识到,人类的复杂性是有限制的,人类合作能实现的复杂性总和也是有限的。同时,我又得知了“哥德尔不完备性定理”。以上两者告诉我,人的信息处理能力是有限的。信息处理能力是一切竞争力的根源,所以最大化竞争力也就需要最大化信息处理能力。竞争者想要生存,就必须一直在复杂性与哥德尔不完备性定理的限制之下尽可能地提高自己的信息处理能力。同时,信息处理能力与复杂性的限制也使得我们不可能用巨量的资源投入换来无限强的信息处理能力,所以社会需要每一个具有最强信息处理能力的个体拥有自由,这样才能最大化全社会的信息处理能力。这就是信息试错机理论的核心。我当时想要把这一理论写成本科毕业论文,但是由于积累与表达能力不足,在中期考核无法表述清楚,所以不得不换成其它课题。
大学毕业后,我进入生物物理所朱岩老师实验室。在这里,我可以与人交流脑科学的最新进展,也可以学习编程,十分有助于我思考人工智能相关的问题。这一阶段,我主要思考的问题就是,人类到底将在何种情况下被人工智能取代。我意识到意识形态是一种“以较少信息处理能力管理较多信息处理能力”的工具,所以我阅读了一些关于意识形态,价值观与死亡学的信息。我逐渐丰富了死亡与信息处理能力关系的理论。
在一年冬天的年会中,我曾经问我的导师朱岩研究员:“如果把一个人的大脑复制成两个完全一样的,那么谁是原来的那个人?”他答道:“人的复杂性太高了,这种操作是不可能实现的。”我突然醒悟到,一些抽象的哲学思考是必须建立在具体的可操作性上面的。复杂性与信息处理能力往往就是这些操作性的主要限制因素。这启发了我尝试用信息处理能力与复杂性相关的理论解释一些看似无法客观解释的精神现象。
之后,我认为理论体系已经成熟,可以写作了。但是这一过程耗费了许多年,主要原因一是不专心,一是非常困难。竞争力,信息处理能力,复杂性与信息试错机之间的关系错综复杂,而且有些点我并没有仔细论证,而只是有一些感觉。我需要给所有论点找论据,梳理清楚。我把能写下来的东西尽量写下来,逐渐积累文稿,几次大改之后终于梳理出了理论体系的结构。之后,我初步定的题目是《关于死亡的一切》,因为我觉得我解决了死亡相关的问题。但是结果发现头重脚轻,基础理论的描述占了很大部分。我又尝试把它写成比较专业的论文,但是我觉得这样的论文很难发表。之后,我参考了很多科普文章与科技哲学网文的风格,最终写下了本书。
集智俱乐部的张江与苑明理曾讲解过哥德尔不完备性定理的逻辑结构,对本书有一定帮助。
计算技术研究所的的蒋浩强老师与周佳齐同学,以及北京大学哲学系博士李熙与我深入探讨过人工智能相关的问题,让我受益匪浅。
朱岩实验室的博士后孙元捷与博士生高山曾与我探讨过进化速度与生物复杂性相关的话题。
我的母亲孟桂兰曾经与我讨论过书的写作方法,以及语言风格。