【东音社按】本文摘自日经BP的《完全读懂AI应用最前线》,经东方出版社授权发布。人工智能的历史是“热潮”与“低谷”交替出现的历史。发展热潮中充满了无限的期望,但是事与愿违,它迅速走向了衰败。热潮与低谷的发展史,为人工智能的实用化提供了积极性的参考。
本文,我们将讲述人工智能第1次热潮和低谷以及第2次热潮初始阶段的历史。
一、初级阶段:聊天机器人
1956年的达特茅斯会议上,“人工智能”一词登上了历史的舞台。之后,各种人工智能程序陆续登场,人工智能迎来了第1次发展热潮。在这个时期,人工智能软件“Eliza(伊莉莎)”引起了很大的反响。Eliza,是最早的与人对话程序,从1964年开始,由德国科学家约瑟夫•魏泽堡主持编写。当时,使用了专门的编目处理语言“SLIP”进行程序开发,之后的程序开发则是由LISP主导进行的。
Eliza有各种各样的对话例子,其中最著名的例子就是模仿心理医生的心理辅导。被测试者都认为与自己对话的是心理医生,丝毫没有怀疑网络对面的是一台机器。
Eliza通过模式匹配与概念词典技术模仿与人对话的程序。它就是之后被称为“聊天机器人(chatterbot)”程序的原型。聊天机器人,虽然是可以模仿人类对话的程序,但是却没有融入人工智能的技术,只是表面上看起来像是双方的对话是成立的。从这种并无才能的角度出发,它也经常被称为“人工无能”。聊天机器人多是利用简单的词汇识别和概念词典编程的。
当然,也有人主张“像Eliza这样的聊天机器人(人工无能)并不是人工智能”。它既没有对智能进行定义,也没有依据智能进行推理,因此至少不能称之为研究并模仿人的智能的“强人工智能”。另外,聊天机器人是利用简单的模式匹配和概念词典编程的,它的行动模式是能够被人推断出来的,它看起来就像以if句式区别意思的决定论式的程序。
但是,以Eliza为代表的聊天机器人(人工无能),让世人开始了解人工智能,并促进了自然语言处理的迅猛发展,这也体现了它们的巨大贡献。我们至少可以称它们为初级阶段的人工智能。
二、第一次热潮:弱人工智能阶段
在人工智能发展的第1次热潮里,有一个需要介绍的程序,那就是通过符号处理获得更加严密的计算结果的“计算机代数系统”。比起简单的数值计算程序,该系统可以得到更加严密的计算结果。
“Macsyma”,是人工智能发展初期的具有代表性的计算机代数系统之一,该程序能够处理多项式以及不定积分。
Macsyma是在1968年以William A. Martin为首的科学家研发的一套系统,是以LISP语言编写,并融入了启发法的问题解决方法。启发法,是通过探索最接近最优解的近似最优解的方法来得出问题的答案,而不是搜索所有可能的答案,从而得出最优解。
另外,“Reduce”也是该时期具有代表性的计算机代数系统,是由Anthony C. Hearn于20世纪60年代开发编写的。现在,已经开放源代码,研发活动仍在进行中。Reduce程序利用LISP编写,可以处理不定积分。
Macsyma问世之后,计算机代数系统取得了很大的发展,美国沃尔夫勒姆研究的“Mathematica”、日本莎益博工程系统的“Maple”等都是之后研发出来的系统。
如前所述,Macsyma和Reduce都是利用LISP编写的,因此我们也可以说LISP作为人工智能的汇编语言发挥了巨大作用。反过来也可以说,计算机代数系统就像一个LISP的巨大的应用程序,LISP处理系统需要将这些程序成功运转起来。
其公式处理方法用的是启发法,完全不同于只是基于if句式的决定论式的程序。它至少可以称得上是一个模仿专家思考行为的“弱人工智能”。
继聊天机器人和计算机代数系统之后,在人工智能发展的第一次热潮期间诞生的还有专家系统这套程序。
专家系统,正如其名,它是一套将人类专家的知识和经验变成数据形式,然后通过数据进行推理的系统。初期的专家系统中比较有名的是“Mycin”系统,它是由以美国科学家Edward Shortliife为首的团队在1970年初期研发的。Mycin系统是通过与患者进行人机对话的形式来诊断病情,也是利用LISP来编写的。它拥有500多条规则,可以进行较为简单的推理。
它的特点是,导入了被称为“确信度”的系数这一概念来判断诊断的准确度。但是也有人主张,导入这一概念容易给推理过程造成一定的干扰。
专家系统,不仅在第1次人工智能热潮中得到发展,在第2次人工智能热潮中也继续流行。
三、人工智能的瓶颈初现端倪
在第1次人工智能发展热潮中诞生的各种人工智能程序,只是进行简单推理的程序较多,在发展过程中,瓶颈也就逐渐地显现出来了。
早在第1次发展热潮之前,马文•明斯基和西摩尔•派普特着手的人工神经网络研究就指出了人工智能发展可能出现的瓶颈问题。具体来说,由输入系统和输出系统组成的简单感知器,作为人工神经网络的一种形式,无法解决“不可分的问题”。
在这里我们不做详细说明,但是线性不可分问题的确在很多地方都存在,它也显示出只是导入了简单感知器的人工智能的弊端,这也导致了世人对人工神经网络的期待急速地降低。
最近流行的多层人工神经网络(深度学习模型),随着学习运算法则的不断进化,线性不可分的问题也逐渐被解决。这一点我们将在后面的篇章里做详细解释。
四、经历“低谷时代”,进入第2次发展热潮
人工智能发展的第1次热潮,从1956年一直持续到70年代前期。这一时期研发的专家系统等人工智能系统,因受到计算机处理性能的制约,只能处理一定数量的规则,并且是在特定的领域、特定的环境下才能够发挥作用。
人们在对人工智能充满期待的同时,对研发出来的缺乏实用性的系统也充满了失望,因此,国家以及企业在人工智能方面的预算也越来越少。这一时期,也就是20世纪70年代后期被称为人工智能发展的“ 第1次低谷”。
但是,进入20世纪80年代后,人工智能很快再次迎来了新的发展热潮。
本次发展热潮的主角是在第1次发展热潮时诞生的专家系统。因处理美国迪吉多公司(DEC)的VAX系统的各种订单并取得非常成功的专家系统受到广泛关注,各IT供应商迅速导入专家系统。
人工智能发展迎来第2次热潮,最大的一个原因在于计算机性能的大幅提高。进入20世纪80年代,基于复杂规则的专家系统也可以在计算机上运行。由此,逐渐实现了专家系统的商业性使用。
随着专家系统的兴盛,制定专家系统运行规则的工程师也被称为“知识工程师”,并且一时间成为炙手可热的职业,就像在今天,数据科学家这个职业相当流行,受到人们的追捧。
知识工程师的主要工作是听取用户的业务内容并对其进行分析,从中抽出明显的规则与隐藏的规则,然后进行分类。
当时,科学家们研发出了各种专家系统。初期的各种专用专家系统大都是利用LISP编程,随着技术的革新,慢慢地发生了变化,通用的引擎部分依然利用LISP编程,规则部分则是知识工程师利用外部数据进行编程。并且,用LISP编程的引擎部分,利用C语言进行编程的开发研究也已经展开了。
专家系统的编程由专用LISP语言向普通的C语言过渡,该系统也变成了一般的程序员编写的一般系统,其新意也就逐渐淡化了。
由此,专家系统也就从人工智能程序变成了决定论式的普通程序。随着这一变化,专家系统的作用效果也变得非常明确,但是其发展瓶颈也开始显现出来。
五、人工神经网络的发展
在人工智能发展的第2次热潮中,人工神经网络也发生了很大的变化。第1次发展热潮时,马文•明斯基等就已经指出,仅凭简单的人工神经网络还有很多无法解决的问题。为了解决这一大难题,多层化的人工神经网络开始受到关注。但是,如何实现多层人工神经网络的自我学习,还没有一个固定的模式。
之后,被称为反向传播(Backpropagation)的算法问世,打破了这种僵局的持续。反向传播是人工神经网络的一种自我学习算法,基于这种算法,多层人工神经网络的机器学习实现了定式化。该算法通过在输入层和输出层之间设定一个中间层(隐藏层),以反向传播的方式实现机器的自我学习。
基于反向传播的形式逐渐形成固定的模式,人工神经网络的发展也进入了兴盛期。线性不可分的问题也开始得到解决,人工智能也实现了进一步的发展。
在人工智能的第2次发展热潮时,笔者有幸参与了作为人工智能机的LISP专用机的研发工作。LISP专用机,也就是一种被称为“AI工作站”的新型计算机。当时,各企业都争相研发各种人工智能专用机,一时间,形成了一股热潮。
人工智能专用机诞生之初的价格大约在1000万日元,之后价格急速下降,使得人工智能专用机在一定程度上得到了普及。在人工智能专用机上运行的程序就有专家系统。可以在人工智能专用机上直接编写专家系统,也可以先编写通用的专家系统,然后再将各种规则编入系统中。