问一个正确的问题,可能会有很好的效果。要有什么样的知识结构,才能被人工智能所理解。
前面我对理解的看法是,理解是将未知的事物连接到已知的事物,最终到达我们的元认知。
一方面,我对一件事理解了的话,我就会对它形成掌控的感觉,我可能知道这么做,结果是A,那么做,结果是B。
这种掌控感是什么,是不是必须为人工智能所拥有?
我想起了自己学习编程语言的经过,往往一个语法有很多特性,未必自己全部知道。
这其中探索的过程,被我形容为在黑暗中探索房间的边界,当我们知道什么能做,什么不能做之后,我们就掌握了它。掌控感来源于此。
很显然,掌控是比理解更高的层次,那需要知道能与不能的边界。
而正确做一件事,是不需要掌握它,只需要理解甚至知道就可以。
我们会联系起考试的教学大纲,里面会有类似的3个层次,知道,理解,掌握。
其实这三件事说的是一件事,都是知道。知道也就是建立不求甚解的联系。
因为语言的内涵往往是模糊不清的,所以在这怎么样定义就很重要。
我知道一件事情,可能是我不理解的,也就是它的逻辑关系是跟我的底层认识断层的。
我知道航天中心的发射工程师在倒计时后按下发射按钮,火箭会点火发射,可我并不知道为什么。
我也知道在python中用print可以在屏幕上显示出东西。可我也不知道怎么做的。即使我知道怎么做的,我也不知道显示器如何显示这些东西的原理。
根据我的理解。有时知道就可以了,没必要理解,有时理解就好了,没必要掌握。这全取决于你应用这个知识的层次、频度和重要性等等。
在这个时代,甚至没有人能理解计算机领域的所有知识,更不用说人类所有的知识了。
而将来结构化的知识体系,会使超级人工智能完全掌握计算机领域的所有知识,你能想象一个这样的人吗?
他会做什么?可能是创造伟大的新东西。创造的本质,就是把两种以前没联系的东西,现在联系到一起,当这件东西是对人类有用的,那就是创造。
这样的人工智能的创新能力,超过任何人,当然是否能超过所有的人类还不一定。但毫无疑问,仅仅数台这样的专业领域超级人工智能,都会给世界带来巨大的变革,更不用说,如果全能的超级人工智能能出现的话。
这种东西会颠覆我们的很多认知,正如当今世界围棋排名第一的中国棋手柯洁说的,它不按套路出牌,甚至是按照前人明确认为是错误的棋路下棋,你会感觉自己的棋白学了,它才接触到了围棋的本质。
当然,超级人工智能也和这里的围棋一样,可能会遭遇无穷大数字的困扰。创新,将两个新事物联系起来的算法,实际上是一种阶乘,这会导致超级人工智能的瓶颈。
但是有两个解决方案,抽象分层和关注基础。
关注基础意味着它会对基础领域的知识进行迭代完善,这会产生更大的效果。
而抽象分层,原来是一万个对象之间的联系,那种运算量可能无法承受。而现在可能已经抽象成了几个大的对象,抽象是一定会牺牲信息的,但那都是些不重要的信息。
这个世界本质上是概率而非因果的,所以抽象所牺牲的信息,也有可能再变为重要的。