《AI 3.0》读书笔记
《AI 3.0》读书笔记 序1
《AI 3.0》读书笔记 序2
《AI 3.0》读书笔记 序3
《AI 3.0》读书笔记 译者序
《AI 3.0》读书笔记 第一部分 若想对未来下注,先要厘清人工智能为何仍然无法超越人类智能01
《AI 3.0》读书笔记 第一部分 若想对未来下注,先要厘清人工智能为何仍然无法超越人类智能02
03从图灵测试到奇点之争,我们无法预测智能将带领我们去往何处
“猫识别机”掀起的春日狂潮
2012年,谷歌的一个人工智能团队构建了一个“观看”了数百万个随机YouTube视频的多层神经网络,该网络具有超过10亿个权重,并且能够为了成功地压缩并解压视频中选定的帧而对这些权重进行调整。谷歌的研究人员并没有告诉系统要去学习任何特定的对象,但是经过一星期的训练之后,当他们探测这个多层神经网络的内部结构时,你猜他们发现了什么?一个似乎能够识别猫的神经元(单元)。
现实世界的人工智能在我们的日常生活或主流媒体中并不那么引人注意。如果你是在20世纪90年代或更早的时候出生的,那你可能会回想起你与客户服务语音识别系统、语言学习机器人玩具“Furby”,或者微软那烦人且命运坎坷的虚拟助手“Clippy”之间的一些令人沮丧的交互体验。
Clippy,这个可爱的回形针,当年一个傻傻的桌面宠物。
我们接受了国际象棋是可以屈服于暴力搜索机器的,我们认为下棋下得好一点都不需要通用智能。这似乎是一种常见的反应:当计算机在某一特定任务上超越人类时,我们就得出结论,该任务实际上并不需要智能。正如麦卡锡哀叹的那样:“一旦它开始奏效,就没人再称它为人工智能了。”
2005年以后,一系列更为普遍的人工智能成果开始在我们身边悄然出现,
- 自动语言翻译服务——谷歌翻译
- 谷歌的自动驾驶汽车
- 苹果的Siri或亚马逊的Alexa这样的智能助理,也开始被安装在我们的手机里和家中,它们可以响应我们的许多语音需求。
- YouTube开始为视频提供相当精确的自动字幕
- 即时通信软件Skype则可在多语言的视频通话中提供同声传译。
- Facebook甚至可以在上传的照片中识别出你的脸了,
- 照片分享网站Flickr也开始用描述照片内容的文字来对图片进行自动标注了。
- 2011年,IBM的智能程序沃森在电视益智竞赛节目《危险边缘》中完胜人类冠军,娴熟地解开了双关语的线索,并使得它的挑战者肯·詹宁斯(Ken Jennings)发出了“欢迎我们的计算机新霸主”这样的感叹。
- 2016年3月,阿尔法围棋与围棋世界冠军、职业九段棋手李世石进行围棋人机大战,以4比1的总比分获胜;2016年末2017年初,该程序在中国棋类网站上以“大师”(Master)为注册账号与中日韩数十位围棋高手进行快棋对决,连续60局无一败绩;2017年5月,在中国乌镇围棋峰会上,它与排名世界第一的世界围棋冠军柯洁对战,以3比0的总比分获胜。围棋界公认阿尔法围棋的棋力已经超过人类职业围棋顶尖水平。2017年5月27日,在柯洁与阿尔法围棋的人机大战之后,阿尔法围棋团队宣布阿尔法围棋将不再参加围棋比赛。2017年10月18日,DeepMind团队公布了最强版阿尔法围棋,代号AlphaGo Zero。经过短短3天的自我训练,AlphaGo Zero就强势打败了此前战胜李世石的AlphaGo,战绩是100:0的。经过40天的自我训练,AlphaGo Zero又打败了AlphaGo Master版本。
人工智能:狭义和通用,弱和强
“狭义”和“弱”并没有太多贬低的意思,它们只是用来形容那些仅能执行一些狭义任务或一小组相关任务的系统。
- AlphaGo可能是世界上最好的围棋玩家,但除此之外什么也做不了,它甚至不会玩跳棋、井字棋等游戏。
- 谷歌翻译可以把英文的影评翻译成中文,但它无法告诉你影评者是否喜欢这部电影,更不用说让它自己来观看和评论电影了。
“狭义”和“弱”人工智能往往是与“强”“人类水平”“通用”或“全面”人工智能(有时候也被称作AGI,即通用人工智能)对比而言的,后者即那种我们在电影中常看到的,可以做我们人类所能做的几乎所有事情,甚至更多事情的智能。
通用人工智能是人工智能领域研究最初的目标,但后来研究者发现实现这一目标比预期要困难得多。随着时间的推移,人工智能领域的工作开始聚焦于特定的、定义明确的任务,如语音识别、下棋、自动驾驶等。
“一堆狭义智能永远也不会堆砌成一种通用人工智能。通用人工智能的实现不在于单个能力的数量,而在于这些能力的整合。”
- 我们如何知道自己成功地构建了一个这样的“思考机器”(thinking machine)?
- 这样的系统会被要求像人类一样具有自我意识吗?
- 它需要按照与人类相同的方式来理解事物吗?
- 既然我们在这里谈论的是一台机器,那么,称它为“模拟思维”(simulation thought)是否才更加准确呢?
- 还是说它真的在思考?
人工智能是在模拟思考,还是真的在思考
在20世纪30年代就勾勒出了第一个可编程计算机框架的英国数学家艾伦·图灵,于1950年发表的论文《计算机器与智能》(Computing Machinery and Intelligence)中提出了这样一个问题:“当我们问‘机器能思考吗?’,我们到底是要表达什么意思?”
在提出著名的“模仿游戏”(imitation game,现在称为图灵测试)之后,图灵列出了对一台实际会思考的机器之前景的9条可能的反对意见,并试图反驳这9条意见。
神学论点
论点:思考是人的不朽灵魂才拥有的能力。上帝赋予每一个男人和女人以一颗不朽的灵魂,但从未将它赋予任何其他的动物或机器。因此,动物或者机器不能思考。
反驳:简而言之,如果上帝真是万能的,那他完全可以赋予机器以灵魂,也完全可以赋予大象一颗灵魂,并且还能让1等于2。
然而历史证明,宗教本身就缺乏事实证明。伽利略时代就有人借用宗教经文作为论证,提出了一个观点:太阳围绕地球旋转。之后这一观点被事实证明反驳了。
对于如今的这一神学论点,也是如此。“鸵鸟”式论点
论点:机器思考的后果太令人恐惧了。但愿机器永远不会拥有思考能力。
反驳:作为人类,我们都倾向于相信我们比其他生物更加优越。虽然几乎没有人会口头表达这一观点,但是这是所有其他观点的核心动力,例如神学观点便植根于“人类高于一切”的观点。
这种“鸵鸟”式的一厢情愿的论点,与其说是一种事实论据,还不如说是对人类自身的一种安慰。数学论点
论点:在数学逻辑里有一些结论,可以用来证明离散状态的机器的能力有限。这些结论中最著名的是哥德尔定理,该定理表示,任何一个足够有力的逻辑系统既不能证明陈述是对的,也不能证明陈述是错的(即正式的系统或机器都无法生成所有的算术公理)。
这些发现解释了图灵机器有一些不能完成的事情,即逻辑系统能够完成的事情存在局限性。而人类智能并不像逻辑系统这样受到限制,因此逻辑系统和机器并不是智能的。
反驳:人类智能是否就没有像机器这样的局限性呢?现实是,我们并不知道人类智能是否存在限制,而判断机器是否会受到与人类智能一样的局限的唯一方法,便是“模拟游戏”。
与此同时,一台能够自己发明证明方法(如处理语法)的机器,具备生成算术公理的能力。
机器有可能犯错,而人类亦如此。意识论点
论点:任何机器都没有情绪,不能感觉到快乐,也不能感觉到悲伤、沮丧,但是拥有智能的人类明显可以。因此,机器不可能是智能的。
反驳:这一观点否认了图灵测试的有效性——如果机器能够智能地谈论它所创作的十四行诗,那么它就是智能的。关于情绪的探讨只能证明其他人和我们有一样的感受。经过修改,智能不由思考的内在过程来定义——内在过程因不同的实体而异,而是由这一过程的交流和输出来定义。
按照这种观点最极端的形式,你若要肯定一台机器是否能思考,唯一的途径就是成为那台机器并且去感受自己的思考活动。同样地,要想知道某人是否在思考,唯一的途径就是成为那个特定的人。
因此,如果我们不愿意承认机器拥有意识的属性,那我们必然也不愿意承认其他人类也具有意识。种种能力限制的论点
论点:直到一台机器能做X,才能说它是智能的,X可以是:善良,有幽默感,坠入爱河,享受草莓,犯错误等等。
反驳:这些论点都没有任何经验支持,仅仅是基于归纳。人类会在他的一生中看到成千上万的机器,阅“机”无数之后,可能会得出结论:所有的机器都是丑陋/美丽的。这相当于一个英国孩子不学法语的原因可能他认为每个人都应该说英语。
无法享受草莓和奶油就不是智能的观点来自“意识论”,即机器必须像人类一样行动才能算作聪明。
机器不会出错的说法也是“奇怪的”,据说审讯者只需给他们几道算术题就能把机器和人区分开来。
在这种情况下,机器可能会故意把这些问题搞错。
还有一种说法是如果机器有自己的想法,并且表现出来了,可能不会被人类认可。一台试图找到x²-40x-11=0的解决方案的机器可能会观察自己行为的结果,修改自己的程序,以更有效地实现目的,这意味着智能机器能够让自己变得更智能。
对机器缺乏行为多样性的批评站不住脚,如果硬件存储容量技术突破,随着存储容量的增加,机器的行为多样性也会增加。创新论点
论点:人类的聪明之处在于人类的创造性,即可以生产出具有创意性的物品,因此机器不可能是智能的。
反驳:机器经常让人类大吃一惊,这点类似于原创思维。
但也有反对观点说,机器永远不可能做新鲜的事情。图灵曾说过,“太阳底下没有什么新鲜事。”谁能确定“原创作品”不是众所周知的原则的逻辑概括?不是“教学”这颗种子得出的果实?
也就是说,一切都是既定的,只不过我们没有发现,给机器一个选项,让它判断正确与否,还不如说是在给人类一个选项,让人类判断正确与否。
图灵关于人的思想与机器思维的区分概念是“临界”状态(critical condition),图灵说:“另一个比喻就是一个低于临界体积的原子反应堆:输入的想法就像从原子堆外部轰击的中子。这些中子会引起一些反应但是最后将归于消失。
但是,如果原子堆的大小变的足够大的时候,中子产生的链式反应很可能会一直进行下去并持续的增加,直到原子堆发生爆炸。
思维中是否存在这样的现象呢?机器中呢?人的头脑中是否存在这样的现象?机器中呢?
人脑中似乎这这样的,他们大多数都处于"亚临界"状态,相当于亚临界体积的原子反应堆。一个想法出现这样的头脑中,平均下来只会产生少于一个的想法。有一小部分头脑处于超临界状态,进入其中的想法将会产生越来越多的想法,最终上升为一个由二级、三级和更深远的想法组成的完整的‘理论’。动物的头脑肯定是亚临界状态的,由于这种相比,我们可以问:‘一个机器能不能制造成超临界的?’”神经系统连续性论点
论点:神经系统无法作为一个图灵机,维持人类智能的神经系统和图灵机器之间有着本质的不同,因此机器的任何智能行为都是不可能的。
反驳:的确如此,如果机器通过了图灵测试,那又有什么关系么?与反驳意识论证类似,智力/思维不应该由协调输出的内部过程定义,而是由输出的沟通来定义。
根据功能论者的观点,对于智能而言,重要的不是实体的构成,而是像人类一样能够起作用,例如在特定条件下以特定的方式行事。
也就是说,智能机器的物理属性不应该影响机器通过图灵测试的能力判定。行为变通性论点
论点:对于人类来说有没有一套万能的行为规范,尚不清楚。但是为了创造一台智能机器,我们必须攻坚克难创造出这样一套规范。
反驳:要知道是否有规则和对规则是否了解是两个完全不同的概念。如果有这样的规则的话,那也绝对超出了当前的理解领域,也许吧,正因为复杂性,给这套囊括一切的“万能行为规则”披上了一层不存在的外衣。
同样,如果机器智能能够通过图灵测试,那么背后指导机器的规则似乎就无关紧要了。事实上,一台通过图灵测试的机器本身就表明了人类行为存在一套基本规则。超感知论点
论点:超感官知觉俗称第六感, 又称“心觉”,显然不同于耳、鼻、舌、眼、肌肤人类,拥有第六感的人能透过正常感官之外的管道接收讯息,能预知将要发生的事情。一种观点认为机器没有超感官知觉,所以它们不可能是智能的。
反驳:图灵对一论点看的很重。他指出,证明人类超感知觉的唯一方法是通过经验测试,这种方法可以用在人工智能上。
他设想的反对意见从神学的角度到超心理学的角度都有。比如,从神学角度看,思考是人类不朽之灵魂的一种功能,上帝赋予了每个人不朽的灵魂,但并没有将其赋予其他任何动物或机器,因此没有动物或机器能够进行思考;从超心理学角度看,人类可以使用心灵感应进行交流,而机器不能。奇怪的是,图灵认为后面这个论点是“非常强大的”,因为至少对于心灵感应来说,统计证据是无法辩驳的。