现在的云端AI公司的模式基本集中在软件工具+解决方案(算法API;算法模型部署),硬件+软件服务(芯片+算法)打包的模式
端侧公司的模式基本也是如此;今天分析的两家都是提供开发套件+领域内封装AI服务的模式;xnor.AI是AI2GO模型开发部署平台+低功耗物体识别算法模型(计算机视觉);imagimob则是imagimobcapture+imagimobstudio组成的边缘AI模型训练平台+手势检测模型(雷达传感器模式识别);
xnor.AI作为YOLO的创始公司已经被苹果以2亿美金收购;而imagimob好像还在探索合适的变现领域;
在具体的边缘端模型上,因为不同传感器收集的数据不一样,能在某个细分领域做好传感器数据收集、分析、语义翻译和预测,在接下来的一段时间内应该都会具有商业价值;
03.xnor.AI
AI everywhere,on every device
上一轮A轮 1200w美元,今年直接被apple用2亿美元收购;听说人均2000w;(对于创新的支持和发展是市场环境对技术的尊重而不是口号呀)
致力于开发不依赖于数据中心或互联网连接的,可以直接有效地在移动端或嵌入式设备(例如手机、无人驾驶车辆等)上运行的深度学习模型;开发人员可以利用现成的即用型训练模型进行对象识别,可以让任何开发人员都应该能够将AI部署到其平台,应用程序,软件中并加以使用;
xnor这家的爸爸很有意思,艾伦研究所(AI2),孵化的另一家语音识别公司Kitt.ai在2017年被百度收购;
Xnor.AI 也是实时物体识别神经网络 YOLO 的创始团队;xnor net,xnor core应该也是xnor.AI模型的核心;
除了直接提供物体识别的软件模型之外,Xnor 的 AI2GO 平台允许企业和个人开发者将超高效的深度学习模型方便地部署到边缘设备;AI2GO 拥有上百个 Xnor 预先训练好的模型,针对特定的硬件平台、使用案例和性能要求进行调试,从而满足不同的需求;计算机视觉任务模型如物体和人体识别、图像分割、运动分类可以在一些低算力的硬件上运行。(https://v.youku.com/v_show/id_XNDI5NzcyMjkyOA==.html)
苹果收购了之后,一系列文章都在说苹果通过xnor扩展端侧AI能力,但苹果还是惯有风格没有做明确解释;
被苹果收购后官网已经停止更新;可以找到的案例有智能摄像头wyze使用xnor的实时监测模块进行家庭场景监测;主要应用方向应该在智能家居的摄像头监测场景;另外xnor.AI和ambarella合作,为边缘端智能摄像头公司提供可在边缘端部署的低功耗物体检测模型;
Xnor.ai的首席技术官Mohammad Rastegari在2018年5月的嵌入式视觉峰会上的演讲视频介绍了他们的核心方案和应用方向;
想象一下,xnor可以使你的冰箱得知你的牛奶存储不够提醒你购买牛奶成为可能;
04.imagimob
https://www.imagimob.com/cases
eclipse pycharm 这些我们熟悉的代码编译器,在计算机工程和算法领域以自己各自的特色百花齐放;imagimob致力于开发Edge AI应用程序的软件套件,software tools as service模式;
Imagimob AI由 Imagimob Capture 和 Imagimob Studio组成。工作流程主要分为数据收集、数据标记、自动端侧模型构建、模型验证、优化和部署
Imagimob Capture-快速,轻松地收集数据
Imagimob Capture包含一个移动应用程序和多个捕获设备。它用于在数据捕获阶段捕获并标记同步的传感器数据和视频(或其他元数据)。
Imagimob Studio-更快的开发和更好的性能
通过Imagimob Studio,您可以查看,听到和了解AI模型在每个时间步的性能。快速识别和纠正错误,并即时显示改进的结果。
除了提供端侧AI开发工具之外,还提供封装好的服务;目前官网可以看到的主要只有一个手势检测;
手势检测库目前包含覆盖、摆手、拉、滑动拇指、转动手指等动作的识别;主要应用应该是用到tws耳机上;官网上写到Acconeer,Imagimob和Flexworks决定联合开展一个开发手势控制的入耳式耳机的项目;
往前看2017,2018年分别有些汽车方向盘交互和SensorBeat项目;sensorbeat可以识别宠物、儿童等的运动状态和时间;综合看下来,感觉imagimob还没有太理想的盈利能力(高精度模型or套件核心能力);