从Siri以助手的身份出现在iPhone上以来,已经过去5年了。
这5年风云变幻,各路竞争对手也都发布了自家的语音助手,在与势头非常足的友商对比下,Siri似乎成了一个固步自封,不思进取的“傻助手”,除了偶尔说几个段子、打个电话或者发个短信之外,似乎也没有什么其他的作用了。
但真的是这样吗?在我看来并不是。我不是果粉,也没有利益相关。只是想从我个人的角度来谈谈我的看法。之所以说苹果有良苦用心,是因为我认可苹果的这背后的做法。
北京时间9月20号凌晨,苹果正式发布了iOS11版本,除了AR和“卡”之外,还有一个重大的升级,是针对siri的。但是相关的信息都被淹没在了大家对iOS 11的吐槽和对AR的展望中,没有获得太多的关注。
更何况,从表面上来看,siri并没有什么变化。但背后苹果却做了很大的改变,从某种程度上来说,这些方向也都展示出了苹果发力人工智能与平衡用户隐私之间的态度。
苹果方面表示,将会使用本地化的人工智能技术来为Siri提供动力。这和亚马逊、谷歌以及微软等一干友商的做法是不同的。相比之下,后者们通常会把用户的数据传到远程的服务器上,统一进行处理与学习,利用这样的做法去训练语音助手,速度很快,成效也很好,所以你会看到(不过平常也看不到)谷歌和微软的语音助手表现会非常好。
这也体现出了当前发展人工智能的悖论,人工智能需要大量的用户隐私数据,你牺牲了自己的隐私,就能够获得智能与便利。不过很多时候,你是没得选。
不管你看不看,很多厂商,在你开始使用的时候就把这些条条框框写在了用户协议里面了。不同意,就没办法用。
更有甚者,也有不少厂商会在用户协议里埋下排他的协议,比如前一段时间因为用户数据,闹得沸沸扬扬的两个深圳大厂。
苹果大部分数据都本地化,虽然说有助于保护用户数据与隐私,但其人工智能的智能化速度却差强人意,这也就是为什么大家说siri很蠢的原因。
不过话说过来,大部分数据都本地化了,siri也就成了一个私人物品了。其智能化水平需要依靠有限的个人数据来进行训练。这也就是说,想要智能化的siri,自己动手吧。
但在国内的训练非常尴尬。
一方面是支持的应用匮乏。就算在2016年WWDC大会上,发布了汇集siri API接口的开发者平台SiriKit。因为与苹果内置的应用有竞争关系,目前仍旧不能支持太多第三方应用,听音乐只支持Apple Music,看新闻只支持内置的应用(国区貌似没有),支付转账需要Apple Pay,第三方应用最多只能叫个车罢了,也有其他的应用,但对于siri的智能化帮助真的有限。
很显然,这限制了苹果对用户信息数据的收集。
另一方面是语言的限制。苹果的原始语言是英语,使用中文的我们很难体验到一些最新的能力,包括对语义的分析与理解。就比如这一次iOS的升级中有一个语言翻译能力,可以帮你把话翻译成意大利语、西班牙语、法语、德语或汉语等语言,但只有英语才能有这待遇,用中文是不行的。
还好,所有你的装有iOS11的苹果设备上的数据都能用来训练你的siri,它也具备有成长性。你可以带它一路打怪升级,虽然这很难吧。