AI何时从人类助手进化到完全智能
【翻译:岭南客】
原文:When Will AI Graduate from Assisted to Autonomous?
思想学院
自大型计算机以来,人们已经设想出机器的未来潜力,可以帮助他们更快、更准确、更方便地执行不同的任务。 直到最近,这是通过软件完成的(这些软件是用布尔代数、逻辑和透明的方式创建的),条件执行(if / then / else)和循环(for / do)是我们所知道的软件的基石。 理解和改变代码的只是一个培训问题。
随着神经网络和深度学习的引入,一切都发生了变化。 即使是最好的专家也很难理解在经过消化大量数据的过程之后,机器能够获得惊人的答案。 这更接近人类大脑工作的方式,基于直觉超过逻辑推论。 虽然令人印象深刻,但也可以说是可怕的。 它提出这个问题,我们应该允许这样的机器更自主决策吗?
人与AI:胜利的组合
到目前为止,AI智能等级第四级仍然是一个不可及的乌托邦,我们不应该担心机器人很快接管世界。 然而,进步是显着的,应该得到很好的利用,即使情报仍然需要人为因素的帮助和支持。
目前等级
现在,使用AI有3个可行的选择:让机器自己处理简单的重复性任务,使用人工智能作为人类专家的值得信赖的助手,或让任何人随时接手,但鼓励AI学习更多、并进化发展。
最后两个案例是最有趣和值得发展的,因为第一种情况下的大多数情况仅仅是自动化的例子,而不是真正的AI。
人工辅助人类通常是那些专家,他们可以在工作中使用辅助的观测或第二意见。想象一位放射科医生看着可能是恶性肿瘤的东西。在做出这样的诊断之前,将样品与更为已知的实例进行比较是非常好的。那就是AI正在玩的地方。人与机器组合得到的结果超过了每个人的个人表现。
进一步的步骤是允许深度学习算法来监督决策,并且只有当AI产生明显的错误时,才能对其进行纠正。这就是在方向盘后坐一个人的自动驾驶汽车正在做的事情。为了安全起见,对车辆进行全面控制是不明智的,尽管它与一个无聊,可预测和谨慎的驾驶员相比,具有足够的性能。同样的逻辑适用于公司聊天室,照顾可以将对话升级到人类客户服务代表的客户关系。
算法黑箱
AI开发面临的最大挑战是:算法对于如何决策是不透明(不显性的)。 这意味着无法足够快的速度调整机器,来使它在发生错误时能以正确的方式进行响应。 唯一的办法就是教它这样做,就是让孩子从错误中学习,通过给予许多(如上千或者数百万)好的例子,希望下次能够正确地执行。
隔离故障
在条件算法中,分离导致错误并纠正错误的代码是很直接和明显的,计算机就是程序本身。 但从用于训练的数据指出导致不当行为的元素几乎是不可能的,因为进入第一神经元层的信息被处理,进入下一层,并且还有反馈机制。 为AI设备提供自主性需要相信他们是不犯错误的。
强化学习
如上所述,为了变得更加自主,AI应该能够纠正自己的错误,而不是进一步传播。 想象一下,一次不会停在红色交通信号灯上的汽车。 没有改正,再次犯错误的机会很高。 甚至可以相信这是正常的,记得TAY吗? 人类使用的这种类型的学习意味着大量的尝试和错误。 人工智能仍然处于协助状态,专家组通过提供更多的“正确”数据集来监控结果并纠正机器。
误判
一个AI的最大问题之一是错误诊断。 虽然有些情况并不重要,比如在某些可能障碍物之前放慢自驾车,但其他的则会危及生命,例如当病人看起来有症状时为病人提供治疗,但实际上可能没有病。
应用
对于涉及模式,客户习惯和最佳实践的学习的项目,建议使用神经网络。 InData Labs最近发表的一篇文章提出了在移动环境中AI的三个即时应用。 推荐服务是第一个被亚马逊发展的灵感,这些服务是无副作用的、足以采用全自动算法。 另一个例子是学习行为模式,可以从个人礼宾服务到个人助理机器人甚至机器人会计师使用,这可能需要一些人为干预。 最后和最重要的一种将是能够思考和决定最佳行动方案的应用程序,如个人法律顾问,个人医生或无法驾驶的无人驾驶汽车,但是我们目前还没有达到这个水平。
总结
现在,在人工智能的成长中、把它置于适当的人为干预范围内,才是安全的。 下一步是通过喂它许多优秀例程、并开发逐渐取代人类的“导师”算法来教导其纠正错误。 AI的最重要的特征是知识传递特点, 一旦机器学到了一些东西,它就能在另一台机器上被复制和传递,训练不需要从每个计算机的第0点开始,它只要从上一级继续。 这个功能使AI能够在短短几年内发展到人类的水平。
人类已为此做好准备吗?
更多文章,请关注微信公众号:岭南天问阁 (公众号ID:edmoon_cai)