《AI 3.0》读书笔记
《AI 3.0》读书笔记 序1
《AI 3.0》读书笔记 序2
《AI 3.0》读书笔记 序3
《AI 3.0》读书笔记 译者序
《AI 3.0》读书笔记 第一部分 若想对未来下注,先要厘清人工智能为何仍然无法超越人类智能01
《AI 3.0》读书笔记 第一部分 若想对未来下注,先要厘清人工智能为何仍然无法超越人类智能02
《AI 3.0》读书笔记 第一部分 若想对未来下注,先要厘清人工智能为何仍然无法超越人类智能03
《AI 3.0》读书笔记 第一部分 04 何人,何物,何时,何地,为何
《Ai 3.0》05 ConvNets和ImageNet,现代人工智能的基石
《AI 3.0》第一部分06 难以避免的长尾效应
07 确保价值观一致,构建值得信赖、有道德的人工智能
自动驾驶汽车的成功在很大程度上要归功于机器学习,特别是深度学习,尤其是汽车的计算机视觉和决策部分。我们如何判定这些汽车已经成功地学会了其所需掌握的所有知识?
- 自动驾驶汽车可以大大减少交通事故造成的伤亡,这些事故中有许多是由司机酒后驾驶或注意力不集中引起的。
- 自动驾驶汽车能够使人类乘客在乘车时间里更具生产力而不会虚度光阴。
- 这些车辆相较于由人类驾驶的车辆也具有更高的能源利用率,而且将成为无法驾驶的盲人或其他残疾人的福音;
机器学习正被应用在影响人类生活的多个领域的决策中,比如创建新闻源、诊断疾病、评估贷款申请,甚至给出监狱刑罚建议(但愿不要发生这样的事),当机器在做这些事时,我们如何保证它已经掌握了足够的知识,因而可以作为一个可信赖的决策制定者?
在人工智能今后的许多积极用途与对其可信度和可能被滥用的担忧之间做好权衡。
有益的人工智能,不断改善人类的生活
人工智能技术对一直在使用的许多服务都起到了核心作用,如语音转录、GPS导航和出行规划、垃圾邮件过滤、语言翻译、信用卡欺诈警报、书籍和音乐推荐、计算机病毒防护以及建筑物能源利用优化等。
- 如果你是摄影师、电影制作人、艺术家或音乐家,你可能正在使用人工智能系统来协助开展创作,例如用以帮助摄影师编辑照片、协助作曲家编曲的计算机程序。
- 如果你是学生,你可能会从适合你自己学习风格的“智能教学系统”中受益。
- 如果你是科学家,你很有可能已经使用了许多可用的人工智能工具中的一种来帮助你分析数据。
- 如果你是视力存在障碍的人,你可能会使用智能手机的计算机视觉应用程序来阅读手写的或印刷的文字,例如标牌、餐馆菜单或钞票上的文字。
- 如果你是听力受损人士,如今你可以在YouTube上看到非常精准的字幕,在某些情况下,你甚至可以在一次演讲中获得实时的语音转录。
- 人工智能系统帮助医生诊断疾病并提出治疗建议、研发新的药物、监控家中老年人的健康和安全。
- 科学建模和数据分析也将越来越依赖人工智能工具,例如,改善气候变化、人口增长和人口结构、生态和食品科学以及在22世纪我们的社会即将面临的其他重大问题的模型。
- 人工智能将会接手那些人类所讨厌的工作,如那些枯燥无聊、令人疲倦、有辱人格或者极其危险又工资低廉的工作。
- 机器人已经被广泛地用于琐碎和重复的工厂任务了,自动驾驶卡车和出租车,用于收割水果、扑灭大火、扫除地雷和清理环境等。除此之外,机器人可能会在太空探索中发挥出比目前更大的作用。
DeepMind的联合创始人戴米斯·哈萨比斯,人工智能最重要的潜在好处是:
我们可能不得不清醒地认识到,由于这些问题可能太过复杂,即便由地球上最聪明的人来努力解决这些问题,单独的人类个体和科学家在有生之年都很难有足够的时间来取得足够的创新和进步……我的信念是,我们需要一些帮助,而我认为人工智能就是这一问题的解决方案。
人工智能大权衡:我们是该拥抱,还是谨慎
吴恩达曾乐观地宣称:“人工智能是新‘电能’。”他进一步解释道:“正如100年前电能几乎改变了所有行业一样,今天我真的很难想到有哪个行业在未来几年内是不会被人工智能改变的。”
人工智能大权衡(great AI trade-off)。
- 我们是应该拥抱人工智能系统,利用其能力来改善我们的生活,甚至帮助拯救生命,并且允许这些系统被更加广泛地使用呢,
- 还是考虑当下人工智能存在难以预见的错误、易受偏见影响、易被黑客攻击以及缺少透明度等特点,应该更谨慎地使用人工智能来制定决策?对不同的人工智能应用,人类需要在多大程度上参与其中?为充分信任人工智能并使其自主工作,我们应该对人工智能系统提出哪些要求?
你是否会认为,到2030年,先进的人工智能和相关技术系统很有可能会增强人类能力并为人类赋能?也就是说,那时,大多数人在大多数时候会比今天生活得更好?还是说,先进的人工智能和相关技术系统很有可能会削减人类的自治权和代理权,使得那时大多数人的状况并不会比当前更好呢?
- 63%的人认为2030年人工智能的进步将使人类的状况变得更好,
- 有人认为人工智能实际上能够消除全球贫困,大规模减少疾病,并为地球上绝大多数人提供更好的教育。
- 而37%的人则不这么认为。
- 有人则对未来有一种相当悲观的预测:
- 大批的工作被自动化技术接管导致的人类失业;
- 由于人工智能监视而造成的对公民的隐私和权利的侵犯;
- 不道德的自动化武器;
- 由不透明和不可信的计算机程序做出的未经审查的决策;
- 种族和性别偏见被放大;
- 大众媒体被操纵;
- 网络犯罪增多等。
- 一位受访者将未来的世界描述为:“真实,但与人类无关。”
- 有人则对未来有一种相当悲观的预测:
人脸识别的伦理困境
-
好处
- 帮助人们从照片集中检索图像;
- 使视力受损的用户能够识别他们所遇到的人;
- 通过扫描照片和视频中的人脸定位失踪儿童或逃犯,
- 以及检测身份盗用等。
-
问题
- 隐私问题
- 可靠性
- 对有色人种进行识别时明显比对白人的识别错误率更高
人工智能如何监管以及自我监管
人工智能的研究与开发应在多大程度上受到监管?又应该由谁来监管?
- 围绕人工智能的问题,比如可信度、可解释性、偏见、易受攻击性和使用过程中出现的道德问题,与技术问题一样,都是牵涉社会和政治方面的问题。
- 于是,围绕这些问题的讨论有必要接纳持有不同观点和具有不同背景的人们。
- 简单地将监管的职责交给人工智能从业者,就像将其完全交给政府机构一样,都是不明智的。
- 于是,围绕这些问题的讨论有必要接纳持有不同观点和具有不同背景的人们。
- 对人工智能的监管应该参照其他领域的技术监管,
- 尤其是那些在生物和医学领域的技术,例如基因工程。
- 在这些领域,像质量保证、技术的风险和收益分析这样的监管是通过政府机构、公司、非营利性组织和大学之间的合作而产生的。
- 此外,现在已经建立了生物伦理学和医学伦理学领域,这些领域对技术的研发和应用方面的决策具有相当大的影响。
- 人工智能领域的研究及其应用非常需要深思熟虑的考量和一定的道德基础。
欧盟议会在2018年颁布了一项关于人工智能的法规,有些人称之为“解释权”。
- 这项法规要求,在“自动决策制定”的情况下,任何一个影响欧盟公民的决策都需要提供其中所涉及的与逻辑有关的有意义信息,并且这些信息需要使用清晰明了的语言,以简洁、透明、易懂和易于访问的形式来沟通和传达,这打开了有关解释问题的闸门。
- 什么叫“有意义”或“与逻辑有关”的信息?
- 这一法规是否禁止在制定对公民有所影响的决策时使用难以解释的深度学习方法?
- 例如在贷款和人脸识别等方面。这种不确定性无疑将确保政策制定者和律师在很长一段时间内仍有取酬就业的机会。
智库
- “人类未来研究所”(Future of Humanity Institute)
- “未来生命研究所”(Future of Life Institute)
- “存在风险研究中心”(Centre for the Study of Existential Risk)
- 经常举办研讨会、赞助研究,以及就人工智能的安全与道德问题这一主题编著教育材料,并给出一些政策建议。
- “人工智能合作伙伴关系”(Partnership on AI)的伞状组织
- 一直在努力将这类团体聚集在一起,打造一个讨论人工智能及其对人类和社会的影响的开放平台。
目前存在的一个障碍是:
- 该领域在制定监管和道德规范的优先事项方面,尚未达成普遍共识。
- 是应该立即将重点放在能够解释人工智能系统推理过程的算法方面,
- 还是关于数据的隐私方面,
- 或是人工智能系统对恶意攻击的鲁棒性方面,
- 又或是关于人工智能系统的偏见以及关于超级智能潜在的风险方面?
- 作者个人的观点是,人们对超级智能可能带来的风险给予了太多关注,而对于深度学习缺乏可靠性和透明性,及其易受攻击性的关注则远远不够。
创建有道德的机器
机器本身是否能够拥有自己的道德意识,并且足够完备以使它们能够独立做出道德决策而无须人类监管?
- 如果我们要给予人脸识别系统、无人驾驶汽车、老年护理机器人甚至机器人士兵决策自主权,难道我们不需要把人类所拥有的处理伦理道德问题的能力赋予这些机器吗?
艾萨克·阿西莫夫(Isaac Asimov)“机器人三定律”
第一定律:机器人不得伤害人类个体,或者对人类个体将遭受的危险袖手旁观;
第二定律:机器人必须服从人类给予它的命令,当该命令与第一定律冲突时例外;
第三定律:机器人在不违反第一、第二定律的情况下,要尽可能地保护自己。
但实际上,阿西莫夫提出机器人三定律的目的是证明这套定律会不可避免地失败。
阿西莫夫在1942年首次提出这些定律时讲述了一个名为“逃跑”的故事:
如果一个机器人遵循第二定律向危险物质移动,这时第三定律将会生效,机器人随即远离该物质;此时第二定律又重新开始生效。
于是,机器人将被困在一个无尽的循环中,最终对机器人的人类主人造成了灾难性的后果。
阿西莫夫的故事通常集中讨论把伦理规则编程置入机器人后可能引发的意外后果。
阿西莫夫是有先见之明的:正如我们所看到的,不完整的规则和意外所引发的问题已经妨碍了所有基于规则的人工智能方法,道德推理也不例外。
科幻小说家亚瑟·克拉克(Arthur C. Clarke)在其1968年出版的《2001:太空漫游》中描写了一个类似的情节。
人工智能计算机HAL被编程为始终对人类保持诚实,但同时又要对人类宇航员隐瞒他们的太空任务的真实目的。与阿西莫夫的笨拙的机器人不同,HAL饱受这种认知失调的心理痛苦的折磨:“他意识到隐瞒真相与保持忠诚之间的这种冲突正在慢慢地破坏他的心智。”结果是,这种计算机“神经症”使HAL变成了一名杀手。
人工智能中所谓的价值一致性问题:
人工智能程序员面临的挑战是,如何确保人工智能系统的价值观与人类保持一致。可是,人类的价值观又是什么?假设存在社会共享的普世价值有任何意义吗?
电车难题
假设你正在沿着一组轨道驾驶一辆加速行驶的有轨电车,就在正前方,你看到有5名工人站在轨道中间,你踩刹车却发现它们不起作用。幸运的是,有一条通向右边的轨道支线,你可以把电车开到支线上,以免撞到那5名工人,但不幸的是,在支线轨道中间也站着1名工人。这时候,你面临一个两难的选择:如果你什么都不做,电车就会直接撞到5名工人身上;如果你把电车开向右边,电车就会撞死1名工人。从道德上讲,你应该怎么做?
多数人认为,从道德上来说更可取的做法是:司机把电车开到支线上,杀死1名工人,救下另外5名工人。后来,哲学家们发现:对本质上相同的困境选取一个不同的框架,就会导致人们给出相反的答案。事实证明,人类在关于道德困境的推理中,对困境的呈现方式是非常敏感的。
自动驾驶汽车的电车难题
自动驾驶汽车牺牲1名乘客还是杀死10名行人
- 76%的参与者回答,自动驾驶汽车牺牲1名乘客比杀死10名行人,从道德上来说更可取。
- 可是,当被问及是否会购买这样一辆被编程为会为了救下更多行人而选择牺牲其乘客的汽车时,绝大多数参与调查者的回答是否定的。
- 研究人员称:“我们发现在6项亚马逊土耳其机器人参与的研究中,参与者认同这种效益主义的自动驾驶汽车,即牺牲乘客以获取更大利益的自动驾驶汽车,并希望其他人会购买它们,但他们自己更愿意乘坐那些不惜一切代价保护乘客的自动驾驶汽车。”
心理学家乔书亚·格林(Joshua Greene)在他对这项研究的评论中指出:“在将我们的价值观置入机器之前,我们必须弄清楚如何让我们的价值观清晰且一致。”
在赋予计算机“道德智能”方面的进展不能与其他类型智能的进展分开,真正的挑战是创造出能够真正理解它们所面临的场景的机器。
正如阿西莫夫的故事所阐明的:除非机器人能够理解不同场景下伤害的内涵,否则它无法可靠地执行避免伤害人类的命令。
对道德进行推理要求人们认识到原因和结果的关系,想象可能的不同未来,了解其他人的信念和目标,并预测一个人处在各种情况下会采取的各种行动的可能结果。换句话说,可信任的道德理性的一个先决条件是通用的常识,而这,正如我们所见,即使在当今最好的人工智能系统中也是缺失的。
在庞大的数据集上训练的DNN(deep neural network,深度神经网络)如何在特定任务上与人类的视觉能力相媲美;
网络的弱点,包括它们对大量人类标记数据的依赖,以及它们以非人类的方式失败的倾向。
我们如何才能创造出一个真正能靠自己进行学习的人工智能系统——一个更值得信赖的系统,一个和人类一样,可以对其所面临的情况进行推理并对未来进行规划的系统?
07 “新机器人三定律”
1.有用的人工智能
在考虑人工智能在我们社会中的作用时,我们很容易把注意力集中在不利的一面,但是,有必要记住,人工智能系统已经为社会带来了巨大好处,并且它们有潜力发挥更大的作用。
2.可解释的人工智能
在人工智能“自动决策制定”的情况下,任何一个影响公民的决策都需要提供其中所涉及的与逻辑有关的有意义信息,并且这些信息需要使用清晰明了的语言,以简洁、透明、易懂和易于访问的形式来沟通和传达,这打开了有关解释问题的闸门。
3.可信的人工智能
在赋予计算机“道德智能”方面的进展不能与其他类型智能的进展分开,真正的挑战是创造出能够真正理解它们所面临的场景的机器。换句话说,可信任的道德理性的一个先决条件是通用的常识,而这,正如我们所见,即使在当今最好的人工智能系统中也是缺失的。