你以为机器人都像Siri这么蠢萌直白?
呵呵,too young too simple。
未来的机器人坑起人来,比人类可有过之而无不及。
纽约的人行横道按钮是骗人的。大多数电梯里的“关门”按钮也是骗人的。告诉你下载已完成68%的图标呢?不好意思,还是骗人的。
这些手段除了让我们稍安勿躁之外,毫无他用。设计者们明白,当我们感觉自己可以控制局面或知道需要等多久时,心理上会觉得舒服些。因此,这些功能被设计出来只是为了安抚我们罢了。
如果程式中的障眼法让你不爽,接下来还有更糟的。机器人被设计得越来越类人型,而人类特质的一部分便是谎言与欺瞒。
有时机器人的欺瞒行为是为了我们好。以理疗复健机器人为例。这些机器人会知晓病人到底能使出多大劲,然后“骗”他们说他们用的力道还不够,以此来激励病人更上一层楼。人们的身体局限性使他们停滞不前,因此机器人通过撒谎来帮助他们。这个办法很有效,因为人们默认机器的读数总不会错。
更令人不安的是,有些机器似乎发展出了自主欺瞒的能力,占人类的便宜。2015年1月,加拿大研究者们开发了一种号称无敌的德州扑克算法。它横扫对手的部分秘诀就在于其虚张声势的本事。研究者们在机器人的程序中编入了游戏的一切规则,但每局的打法由它自己决定,唯一的指导方针就是将奖金最大化。它的欺瞒行为是自发的。
Google正在利用类似工具来训练机器玩雅达利游戏。在某些实例中,机器已经达到了超人的水平。这类具有强化学习能力的AI令机器人得以适应不同局面,这和人类在特定场合决定如何行动并无区别。如果假笑能让我们达到目的,我们就会一次又一次这么做。
然而区别在于,相较于人类,机器人在脑子里把无数种可能性及结果过一遍的速度要快得多。于是就酿成了一种不可预知感。这也是一些开发者和伦理学家之所以担心会出现邪恶机器人的原因。它们可能变得比人类更擅长说谎。如果我们让一个股票交易机器人将收益最大化,它会不会用一些开发者都没想过的背德手段达到目的?
“我认为机器人棒极了,”斯坦福互联网与社会中心研究人机互动的学者伍德罗·哈尔佐格说。“它们能成为未来人类繁荣的伟大助力,但也可能被设计为欺骗和操纵的机器。”
事实上,卡耐基梅隆大学的研究者们正在开发懂得通过欺骗来观察人类上当后反应的机器人:
有趣的结果表明了人类有多相信机器人。大部分实验参与者都对此一笑置之,把机器人的行为看作是故意逗他们开心。我们相信机器人总是会为我们着想。
然而事实并非如此,尤其是那些伪装成人类的机器人。在知名婚外情网站Ashley Madison数据泄露后,Gizmodo网站对此次事件进行了分析,发现Ashley Madison上有7万多女性机器人诱骗男顾客购买了私信点数。常有奸商在Tinder和Grindr这样的约会app上利用机器人与人类“调情”,试图窃取人们的信用卡信息或哄他们在第三方站点购买产品。
来自虚拟和实体机器人的欺骗对我们来说还是新鲜事,人们对此鲜有察觉。如果对方是人类,我们不难从回答时闪避的目光判断出对方在耍心机。然而我们却没法按图索骥辨别出说谎的机器人。
尽管如此,我们仍然在寻找方法。2013年末,一个类人嗓音的电话推销员曾打电话推销健康保险。不敏感的人可能会被她的声调迷惑,但当她打给《时代周刊》华盛顿分社主编迈克尔·谢勒时,谢勒注意到她的声音不太对劲。谢勒问“她”是不是机器人,她否认了,但她答不出一些对人类来说小菜一碟的问题,诸如番茄汤里有哪些蔬菜或者昨天是星期几。骗局就这样穿帮了。不过这里的猫腻或许还不止于此:电话另一头可能是人类在利用机器人当幌子。
康奈尔大学研究欺骗的专家杰夫·汉考克认为如果机器人的言行让人类感觉上当受骗,我们对它们的不信任感可能更甚于对人类的不信任感。
“人们相信他人,这是我们的默认状态。”汉考克说。“我们面临的一个重要问题是:在于机器人的互动中,我们也会有这样的取真偏好吗?对开发者来说这是一个大问题。”
以能与孩子对话的人工智能芭比娃娃为例,它们存在的意义就是让儿童相信他们正在与真正的朋友交流。它征求孩子们的意见,表达情感,仿佛大脑里真的有思想一样。假如孩子因此依恋上它该怎么办?当孩子发现它只不过是个假人时,会不会感受到背叛?
科学家总是在尽力让人类与机器人的交流更深入,在机器人面前展示更多的自我。这无疑是为了人类好。但也不难想象这可能会让机器反噬人类,欺骗或窃取情报。
“机器人与我们点击浏览的网站不同,它们不是被动的受体。”哈尔佐格说道。“机器人,尤其当你邀请它们进入家庭时,将把你的好恶摸得一清二楚,也就掌握了它们可以用来占你便宜的点。”
用实体和虚拟机器人来作朋友可不是什么天方夜谭。如今,成千上万中国用户都会经常性地和微软聊天机器人小冰聊天。别忘了,这些机器人可是有两个主人的:我们,和创造了它们的公司。
“关键在于机器人服务的对象是谁。”哈尔佐格说。“如果我们想让他们对买家忠诚,我们就需要有一个商业模型,让制造商无法利用机器人钻买家的空子,将买家的信息卖给第三方。”
一个专注确保杀手机器人不会出现的、名为未来生活学院的组织已经开始提倡为机器人开发道德系统。问题在于我们的机器人朋友该被灌输谁的道德,又该保护谁的利益。
“这乍听起来不错,但你只要问三个人‘什么才是有利于人类的?’,就会得到三种不同意见。”瑞士IDSIA人工智能实验室科研负责人约尔根·施密特乌伯说道。“如果人类自己都不能确定什么才是对的,又如何教育机器人什么该做什么不该做?”
或许这时候个性化就派上用场了。在电影《星际穿越》中,宇航员们能下调机器人的诚实度。或许我们也可以如法炮制我们的机器人伙伴。也可能机器人会从人机互动中学习——然后他们就会变得和人类一样狡猾了。
线下讲座预告:“理解未来”系列讲座第十六期
时间:2016年5月21日(星期六)
主讲:夏志宏,数学家、天文学家
主题:《极限挑战——论数学与认知》
地点:中国科技新馆
2016年5月21日理解未来系列讲座将邀请著名数学家、天文学家夏志宏教授,悉数历史上数学家们一次又一次地向“不可能的问题”发起挑战与一次次失败后对世界所获得的崭新的认识。以更高的视角,启发大家对物理学、计算机、生物学以及对人类认知能力层面的深刻思考,揭开关于心、脑、计算机、哥德尔定理之间的关系,探讨人工智能与人类智能的极限。
编译:未来论坛 商白 来源:FUSION 作者:Daniela Hernandez
文章转载请注明出处为 “未来论坛”微信账号(ID:futureforum)
未来论坛官网:www.futureforum.org.cn
未来论坛,是民非企业性质的公益组织,是承载人类科技梦想,用科技改变世界的公益平台;也是连接前沿科技,解读未来趋势的思想平台。
“理解未来”系列讲座,由未来论坛倾力打造,是面向社会大众开放的高质量月度科普讲座。“理解未来”系列讲座邀请富有洞察力、创新性和前瞻性的知名科学家和创业者与大众分享交流对未来的认知,促进社会大众对未来的理解与思考。