都说AI落地难,其实是把AI想得太神奇。
AI必须在自己能力范围内才有可能落地。以下总结了四条AI落地前就大致能评估清楚的问题:
最终产品错误容忍率阈值很高,会导致孵化期长,产品化机会低
AI一般都有进化过程,对最终产品错误容忍率阈值很高的(接近0),孵化期会很长,很长一段时间只能处于测试阶段或者项目阶段(环境可控),无法真正全面产品化。
举例一:最明显的例子是自动驾驶,最终产品涉及人命问题,错误容忍率接近0,即使自动驾驶技术相比人驾驶的事故发生率在统计意义上已超过,还是不能判定为真正产品化。
举例二:菜品识别可能有同样问题,从团餐管理者角度讲,对菜品识别的错误容忍率接近0。假设菜品识别正确率是95%,意味着每20盘菜有一盘错误,如果是每人3个菜的配置,每7个人有一个错误,需要人工介入,对团餐收银效率的提升并没有多少帮助,何况菜品识别前期还需要很多额外的标注模型建立工作,对食堂管理者来说,只要正确率没有达到近乎100%,相较之下,宁愿使用人工方式。
视频算法中单帧检测结果,抽帧检测有统计意义 VS. 必须连续帧检测才有意义,会有明显成本区别
-有些场景,比如后厨,货架,单帧检测就有意义
-有些场景,比如计算客流,计算某个位置的驻足(人头,热力图),使用抽帧也是有统计意义的
-某些场景,特别是判断行为,比如收银防损,如果建立场景中发现无法转换用单帧和抽帧检测识别,必须要连续帧检测。这类场景必须先考虑成本问题,成本可能成为无法全面产品化的关键因素。
AI框架问题:某些场景边界定义困难,涉及的认识论问题会导致技术探路无法进行
AI本身有一个框架问题,如果场景边界很难被完全预先定义,场景转换为知识表示就很难,就会导致人类默认的含义被计算机忽略,框架问题就会出现,因为这些含义没有被阐明。
现有技术下,场景建立还是需要人为对一个场景进行某种形式化,并暗示环境中的事物不会任意改变,涉及比较多的认识论问题。Epistemology框架问题,认识论和常识约翰·麦卡锡(John McCarthy)和帕特里克·海斯(Patrick J.Hayes)在1969年的文章《从人工智能的角度看一些哲学问题》中定义了框架问题,后来,在哲学中,框架问题成为了如何理解人类判断事物相关和不相关性的问题。框架问题在技术上来说不难解决,但是到了哲学上,这个问题就变得颇为复杂,其核心问题在于,如何知道一个动作会改变怎样的对象?一个动作会改变怎样的对象涉及常识,而常识的困难之处在于它对我们而言是在太显而易见了,甚至很难用语言去描述它,进而在数据中给它打标签。对于所有“显而易见”的东西,我们存在巨大的盲点。因此,我们无法教计算机常识,不仅因为这可能不切实际,更根本的原因是我们甚至没有意识到“常识”是什么。直到我们发现机器人做了一些很愚蠢的事情,我们才顿悟:“哦,原来它不懂 ”。From MARGARET A.BODEN:AI: It's nature and future, P44
收银防损问题可能就是这样一个边界定义比较困难的场景,即使场景定义为只关注收银区域的防损,和外盗,内盗,自然损耗中的防损概念还是无法切割清楚,收银区域可能出现收银员故意偷盗,顾客故意漏扫,将非自然损耗算为自然损耗等情景,而这些情景相关行为也经常出现在收银区域以外的地方,包括收银员偷盗商品,外盗不经过收银直接偷盗,收银员将无损耗商品定为自然损耗商品,边界定义困难。
AI算法是否有潜力加载至边缘计算
边缘计算是一大趋势,能规避一些隐私法律问题同时,能做成边缘计算基本也代表了产品化程度高,不需要根据项目人工调参。
如果有能力做成软硬件一体的AI方案,落地可能性会大很多。