灵感突发,问友人:
请想象NLP(自然语言处理)已经充分成熟的时代,具有阅读障碍的人们想创造这样一种“辅助阅读器”。
这个机器本身并不一定理解具体的语词,但它就像“中文屋”里的那个操作者,按照一个充分强的NLP系统的指令来处理语词及语词的组合,从而根据用户输入的问题语句以及约束条件,输出一定的语句来辅助用户理解问题语句(它的输出当然要被用户们判定为相对可靠的)。
这样的辅助阅读器是可以实现的吧?
友人不可置否。
我又有遐思:
理论上讲,只要有充分强的NLP,这个辅助阅读器是完全可以实现的。
再给它接上“手脚”、放开权限,那么它就是强人工智能。
这正是我所意图表达的:
1.强人工智能压根就不必要我们这样的自我意识,照样可以表现得像我们一样,并且可以超越我们。
2.反过来讲,人类可能正是这种哲学僵尸——如果我可以怀疑他者(强人工智能以及他人)的自我意识的存在与否,那么我为何不连自己也一并怀疑进去呢?
不必提“笛卡尔式主体”。在这种科幻狂想下,用生物技术来取消“自我”这一幻觉将是可行的。
那么,当人们失去自我后,会导致能动主体的消灭吗?如果认为人的能动性主要在于“自我意识”,这将是可怕的场景。但如果意识的能动性并不总要通过“自我”来体现,那么哲学僵尸们的地上天国也是可期的呀。
但必有现世的人们抗拒此种“革命愿景”的实现(比如使用“地上天国”词语来描述它的我)。那么问题来了,如果我人们可以为了一般的革命愿景抛洒热血、牺牲自我(愿景的实现,必然伴随着众多革命者的牺牲;这意味着当他为此愿景而奋斗时,他已然选择了概率性地消灭自我),那么这些人们为什么要抗拒这种特殊的革命愿景呢?
仅仅是因为哲学僵尸的革命愿景意味着自我(个体的及人类的)的被消灭时更大概率的吗?
但是,“自我意识”并非天经地义的存在。如果我们以人的历史和生命容许了它的诞生,那么为什么难以接受它的消亡呢?
当未来人类的身体机能过度发展之时,迟滞的自我意识会不会成为人类迈向更高自由层次的阻碍呢?
“主啊,我命令你清空我的脑壳,让那里容许一种愈加发展了的存在吧!”