最近很火的AlphaGo击溃了人类的最强精英,很多媒体借此延伸出这是人工智能飞跃的标志性事件,更有甚者,直接冠以人工智能全面替代人类已指日可待的大标题。
输赢无定式,但是可算。
AlphaGo对输赢的概念,是算法设计者已经根据固有围棋规则用代码设定好的。这是有前提条件的人机竞赛,输赢的概念已经定下来了,对弈的双方都是奔着已经定好的规则去走的,并且是可计算的。但显然现实人类社会里的输赢是和棋类竞技定义是不同的,而且往往更加的复杂。
棋路可计算是AlphaGo能够赢的前提条件。
即使是精于计算的AlphaGo,也无法保证在落棋的时候能寸土不失!因从对弈当中来看,AlphaGo也是和人一样存在出现失误和失子的情况。
出现这样的情况的原因,一是算法还不是最优版本;二是AlphaGo还处于在学习的阶段。
它之所以会被视为人工智能里程碑式的突破的一般逻辑是,围棋不像其它棋弈,现在有技术条件不可能有足够的内存和运算处理器来通过记忆庞大的数据和强硬的穷举方式来演算出最后的胜局,换句话说,谷歌的技术大拿们让AlpahGo拥有了像人类的直觉一样的评估系统来对棋局的势和每一步落棋进行评估,以判断出胜算较大的棋路。
刚开局的时候,面对一个空空如也的棋盘,AlphaGo和李世石是一样的,对棋局未来的走势的判断都是模糊的,只是它比人类好一点的地方在于,它可以比人类计算出多一些棋路,但这些棋路未必是最优的,所以为了减少计算量,它必须得学得和人类一样,以最快的速度(类似人类的直觉)屏弃掉低价值的或者说低胜率的棋路,判断出高胜率棋路的集合,并从中挑选可能是最优的棋路。可以说,在棋局开始的时候,AlpahGo并不比李世石要强,甚于可能会偏弱。
但随着棋局的深入展开,双方在棋盘上落下的棋子越来越多,可落子的目则越来越少,可行的棋路也在不断减少。这时候,机器的在记忆能力和计算能力方面的优势就凸显出来了。
在棋路减少到一定的数量级时,AlphaGo甚至只需要依靠机器硬件最基础的功能——记忆、搜索能力,用强硬的穷举法,便可以很轻松的计算出胜率最高的棋路了。而经过一番苦战的李世石的精力与脑力很显然无法和AlphaGo相比,他再不输棋,那也太说不过去了。
从某种意义上来讲,只要AlphaGo对初期棋局的外势不出现什么重大的错估,那中后期基本就是稳赢。而且,这个所谓的中后期会因为硬件性能的持续提升和更新而不断提前。
目前世界围棋界第一人,中国的90后柯洁就是看到AlphaGo对势的判断并不高明,才会说AlphaGo无法战胜他。实际对弈棋势如何,只有等他和它真正的坐在对弈的座位上较量了后才知道了。但是,留给我们人类最强的围棋高手的时间真的不多了。
AlphaGo体现了人类对已有知识整合的智慧,提供了人工智能的一个好的参考模式。
从Google在《自然》上发布的AlphaGo算法来看(鸟叔不是AI砖家,仅是只计算机菜鸟,只能粗略的看看,就是打酱油路过看看的那种看看),它的核心算法蒙特卡罗树搜索(Monte Carlo Tree Search,MCTS)起源于上个世纪40年代美国的“曼哈顿计划”,经过半个多世纪的发展,它已在多个领域广泛使用,例如解决数学问题,产品品质控制,市场评估。应该说,这个算法只算是沿用,并没有发展出突破性的算法。它的算法结构:落子网络(Policy Network),快速落子系统(Fast rollout)、估值系统(Value Network)、蒙特卡罗树搜索(Monte Carlo Tree Search,MCTS)把前三个系统整合起来,构成AlphaGo的整体系统。
另外,如果没有几千年来围棋前人在对弈棋局上的积累,AlphaGo就没有足够的对弈样本,它就无法去演算每一步棋的发展态势,也就无法形成有效的胜率样本,也就是说它的学习神经无法形成对初期势的判断和落子价值的评估了(算法第一作者中的AjaHuang本身就是一个职业围棋手,在AlphaGo之前,他已将许多棋谱喂到他之前开始的围棋系统中)。
AlphaGo不具有通用性,或者说它是弱通用性,它只代表了人工智能的一方面,离真正的人工智能还有很长的路要走。在这里要向那些写出这个算法和AlphaGo程序的许多科技大拿致敬,他们实实在在的迈出了人工智能重要的一步。
如果说人工智能是一盘围棋,那么AlphaGo显然只是这盘棋局刚开始的一小步而已,在它之后是一整片未知的宇宙等待着我们去探索。
而人工智能究竟是会成为让牛顿发现万有引力的落苹果还是变成毒死计算机之父图灵的毒苹果……这我怎么知道,我只是路过看看。
但是,如果有一天,有一颗苹果落在人工智能的脑袋上,它能像牛顿一样发现到万有引力,那我愿意承认那是真正的智慧。