姓名:李兴宇 学号:16030110084
转载自:http://www.sohu.com/a/206688392_136745,有删节。
【嵌牛导读】:随着人工智能的发展,许多人对其安全性提出了质疑,甚至有人说如果不对人工智能的发展加以控制,人类文明或将毁于人工智能。面对这样的局面,人工智能的未来将何去何从,这是一个问题。
【嵌牛鼻子】:人工智能,机器崛起,索菲亚人形机器人
【嵌牛提问】:伴随着人工智能的发展,面对机器的崛起,我们应该为此感到忧虑吗?
【嵌牛正文】:
应「原理」邀请,来自剑桥大学计算机系的博士Partha Maji, 前ARM芯片工程师及deeplearning.ai的讲师,和我们分享了他在研究人工智能时的一些体会,并根据他的研究经历回答了我们共同关心的一个问题——我们应该为人工智能的发展而感到担忧吗?接下来是演讲正文。
大家好,接下来让我们来看看当下社会最前端的发展趋势,人工智能。
(进入主题前,Partha Maji首先用一段视频介绍了汉森机器开发研制的索菲亚人形机器人)
索菲亚是由汉森机器(Hanson Robotics Ltd)开发研制的人形机器人, 也是世界上第一个获得一个国家公民身份(沙特阿拉伯)的机器人。我们生活在一个有趣的时代,从声控设备到医疗设施,从网络购物到自动驾驶(正在研发中),背后都有人工智能的身影。与此同时,最近的一个研究报告[1] 声称人工智能可以再2035年的时候为英国政府增加6亿3千万英镑的财政收入,使其国民生产总值的增幅从2.5%增加到3.9%。在此,我们不禁会问,这样的科技会对人类造成威胁吗?
我们从现在的报纸和网络上经常能看到这样的消息,例如哈佛一位哲学家声称人工智能的发展就像是一个孩子在玩炸弹。著名的神经科学家及哲学家Sam Harris也曾声称制造人工智能就是在制造上帝。脸书(Facebook)也在他们制作的人工智能机器开发出了自己特有的一套语言系统之后决定将其关闭。那么问题来了,在这些媒体的渲染之下,我们真的需要担心人工智能的发展吗?
○ 大众媒体对人工智能兴起的恐慌。
要回答这个问题,我们需要先回过头来看看人工智能的发展史。人工智能的开发从上世纪40年代末期就开始了。但到上世纪60年代以前,几乎所有的研究都失败了,而这段时间也被科学家们称作人工智能领域的冬天。直到上世纪80年代科学家们探索出了新的算法并将其归类为机器学习,人工智能的发展才开始慢慢起步。到90年代初期,神经网络模拟被用在了机器学习上,并因此衍生出一个新的领域——深度学习。但可惜的是这些研究终无建树,而人工智能领域又走进了一段黑暗的时间。直到谷歌的AlphaGo的出现,深度学习作为人工智能的一个分支,开始引领整个领域的发展,并受到了学术界和工业界无数大神的追捧。
我们先从生物学的角度来探索什么是深度学习。大脑是怎么运作的呢?模拟大脑是一个很有趣的课题,但问题是我们自己对大脑本身都不完全理解。我们不能完全明白梦境、睡眠、甚至语言到底是怎么一回事。我们可能只对记忆有部分的了解。当我们将一个图片展示在人们面前,大脑的某一部分的功能就会被启动。但我们仍然在努力的探索大脑作为一个拥有约860亿个神经元的整体是如何运作的。所以,如果我们能模拟单个神经元,或许意味着我们可以在一定程度上模拟大脑。
○ 神经元。
我们先来看看单个的神经元。单个的神经元由中间的神经元胞体和周围的树突等结构组成。当一个神经元胞体产生出超过一定阈值的信号时,信号就会通过髓鞘传至轴突末梢并传向下一个神经元。基于这种特性,我们能模拟神经元的特性。神经元胞体其实是一个累加器,将每个输入加权之后进行累加。累加之后的输出信号会通过一个激活函数(activation function) 。这个函数实际上是一个阈值探测器,如果输出信号大过设定的阈值,那么信号将会被传输到下一个模拟神经元。
○ 神经元模拟。
在深度神经网络系统中,我们会有成千上万这样的模拟。一个深度神经网络由输入层和输出层组成。输出层用于接受输入,例如图像,影像或者视频等。输出层负责在接收到输入之后得出一个加权值。例如我们在输入层输入一些猫和狗的图片,那么输出层将会输出其中每张图片是狗或是猫的概率。
在深度神经网络中,输入和输出层之间可以有上百个中间层作为连接。我们需要用大量的数据来训练这个深度神经网络系统。比如我们会用大量的猫和狗的图片作为输入传输给这个深度神经网络系统。这个系统在每接收到一张图片输入之后做出图片是狗或是猫的预判。错误的预判将会和正确的答案作比较,并用一套数学的算法得出成本函数之后被重新分配到这个神经网络中。这个方法我们称之为反向传播法。系统上的每一个节点都是一个加权的判定。在大量的数据输入和反向传播之后,成本函数得到不断的修正,使得最后输入能够通过最优化的成本函数到达输出层。这个神经网络系统最终学会准确做出预判。总的说来整个神经网络的训练过程就是不断地运用概率学并对错误预判的概率值不断地进行修正。
○ 深度神经网络模拟。
在2010年之前,深度学习只是人工智能的一个分支。其他的分支还包括了自然语言处理,图像处理,机器人设计等等。然而之后深度学习的兴起使其和人工智能的研究并驾齐驱。甚至很多学者都错误得觉得之前所有属于人工智能的分支都能在深度学习的帮助下完成,并开始大量投入深度学习的研究。这个现象其实是令人担忧的。因为人工智能分为强人工智能和弱人工智能,而深度学习仅仅是弱人工智能的一个分支。
现在大多数的人工智能科技,包括自动驾驶和之前视频中提到的索菲亚都属于弱人工智能。因为这些都属于监督学习。意思就是说这些系统都需要使用者提供正确答案,在和正确答案做出比对之后无数次的通过反向传播最终提高神经网络的正确性。强人工智能指的是非监督学习。比如我们输入大量猫和狗的照片,系统能够自己归纳出两种类别的特性,在使用者不告诉正确答案的前提下也能将两种动物正确分类。强人工智能需要满足四个条件,对周围的意识(包括主观的想法等),对自我的意识(有你我之分),对周围的感知(比如对环境变化的感知),以及最终拥有智慧。这是研究人工智能最终极的目标,然而现在的大多数研究却仅仅停留在弱人工智能。一些对强人工智能开发的试验也只是在起步阶段。那么我们什么时候能看到强人工智能的应用呢?或许会有极少数持非常乐观态度的研究者会说在今后的100年左右,但绝大多数的研究者都不敢确定。
○ 或许人工智能与其它学科的本质并无区别。
在大体了解了人工智能之后,我们先来回答这样一个问题,人工智能的研究应该受到法律的规范或限制吗?在我个人看来,人工智能的发展仍在一个相对初级的阶段,任何的法律规范或限制都可能会让整个研究裹足不前。我们更应该把这项技术看成一种工具,其本质和物理化学或者科技并没有什么区别。学界和业界的大佬们也都站出来反驳人工智能威胁论,希望大众不要把人工智能看做是威胁。
○ 从弱人工智能到强人工智能的发展。
当然这并不代表我们可以任由人工智能不受限制的发展,有很多道德层面上的问题还是值得深究的。比如非常著名的电车理论。就现如今的技术看来,无论十几年或者几十年,无人驾驶汽车最终会成为一种趋势。虽然现在的无人驾驶的研究仅仅着重于辅助驾驶员驾驶,但研究者们也从未放弃过对真正意义上的无人驾驶(无需驾驶员干预)的研究。那么这之中就有一个非常严重的问题。我们假设这样一个场景,一个高速行驶的无人驾驶的汽车突然发现公路上有人,紧急刹车的话会导致车内人死亡,而不刹车会导致路上的行人死亡,这时候人工智能应该做怎样的选择呢?如果这种情况导致人死亡,我们又应该起诉谁呢?车里的人?还是汽车的制造商?对于法律应该如何在这种情景下界定责任,我们争论了很多年,而至今也没有结果。
无人机在军事上的应用也是一个大的问题。比如在无人机分析到恐怖分子活动空间之后,在消灭敌人的同时误伤了平民,这又应该谁来负责任呢?再比如现下最流行的电子助理,谷歌和亚马逊都争相推出了各种款式。然而这些产品也无时无刻不在侵犯你的隐私,你说的每句话都会被他们记录下来,传到服务器用于训练更好的下一代的产品。然而你说的很多话也许并不希望有人会听到甚至拿去做分析。举一个更平常的例子,人们平常刷微博发微信,手机上安装新的APP,我们的个人信息都因此变得透明可跟踪。而这些信息都可能被厂商所利用,毕竟在这个时代,拥有数据就拥有了无上的权利。更糟糕的是我们的很多工作也可能被人工智能所代替,如何平衡地分配人和人工智能间的协作,也是摆在我们面前的一个大问题。然而这仅仅是一个开始。
(最后,Partha Maji用另一段索菲亚人形机器人的视频结束了此次演讲)
问答环节
Q:回到之前提到的就业问题,我认为这是现下大家对人工智能最恐慌的地方。你认为政府是否应该出面限制一些可能对社会造成巨大影响的人工智能开发?
A:我个人认为现在技术的发展归功于各个公司间的竞争,如果政府出面限制,那么整个行业的发展将会停滞不前。这将会是一个很大的问题。我觉得与其限制,我们更应该引导这些技术的发展,使他们为我们所用。
Q:在你研究的过程中,你觉得人工智能最大的危险是什么?是他们本身会造成的危险,还是他们落入坏人手里造成的危险?
A:站在研究者的角度,这些技术是会作为工具方便人类的。所以说到危险我觉得更多的是他们落到坏人手里之后造成的危险。比如无人机落到了恐怖分子的手里。因为如今即便是不懂人工智能的人也能从网上下载开源的软件运行人工智能。这方面我们确实需要一些条例来规范这些。
Q:我对之前脸书制造的两个机器非常感兴趣。媒体说他们通过相互对话制造出了自己的,人类无法识别的语言,科学家因此关闭了这两台机器,停止了研究。关于这个你怎么看?
A:首先需要澄清的是两个机器并没有制造出自己的语言。只是通过数学的方式找到了更加简便的信息处理方式。比如其中一个机器无数次的说同样的东西,比如一个披萨,一瓶可乐和一颗糖。次数多了之后他们会通过数学的方式将这三个东西用更简单的方式来表示,比如说“吃”。这在人们听起来是毫无逻辑的东西,但在机器来看仅仅是对一串不断重复的相同文字串的一个更加节省功耗的表达方式而已。所以工程师们关闭了这两个机器并不是因为恐惧他们产生了新的人类无法理解的交流方式,而仅仅是因为这个结果和他们生产这块产品的目的背道而驰了,毕竟他们最初的目的是开发一个能和人类对话的产品。
Q:在我看来比起弱人工智能,强人工智能更可能带来危害,毕竟他们更像人类却有着人类无法匹敌的运算能力。我的问题是计算机科学家们是否考虑过将研究限制在弱人工智能,这样的话我们更能有效地限制强人工智能可能带来的危害?
A:这也是一种选择。但在我看来强人工智能也会有它的市场。虽然可能中我们一生也无法看到强人工智能的运用,但毕竟还是有人希望强人工智能能够帮助他们做一些事情。所以现在也已经有一些公司在强人工智能上花了很大的功夫。研究者更希望运用引导而非限制来解决技术可能带来的问题。
Q:你认为人工智能的研究的瓶颈在哪里?是数据,算法,机器还是其他?
A:首先第一个瓶颈我认为是产品转化的容易度。现下人工智能的开发大多都集中在有监督学习,即弱人工智能。因为这些技术很容易转化为各种产品,使得更多资本也投向了比较容易出成果的弱人工智能领域。这导致了强人工智能的开发不仅在人才还是资金上都受到了限制。其次,我认为瓶颈发生在运行人工智能的机器上。即便是弱人工智能也需要很大的运行能力。所以这些技术单个的计算机或者手机上是不会有很大的用处,因为运行能力受到了很大的限制。现在唯一的解决办法就是通过网络将所有信息收集到服务器上并通过服务器处理之后返还移动端。也就是说现在我们所用到的人工智能大多数都是通过云处理。而这最大的问题就是受限于周围的环境。举个例子如果网断了我们就什么也没有了。所以机器的运算能力也是现在非常大的瓶颈所在。