有人说,"当代人的最新炫富模式是——你有猫吗?"
的确,喵星人的治愈系数在某些程度上,甚至已经盖过了美食。人类在这个"弱小"的萌物面前,也心甘情愿地俯首称臣。
但是也不要忽略喵星人的破坏能力,淘气起来可不输二哈。比如……
国外有个码农小哥,因为自家的喵主人在厨房屡屡"犯案",所以他灵机一动,发挥自己聪明的小脑壳,利用 Google 的 AIY Vision Kit 做了一个喵星人追踪器,将自己的猫从厨房赶走。
让我们一起来看看这位小哥的心路历程和杰作。
简单介绍下 AIY Vision Kit
AIY Vision Kit,是 Google 推出的一款简单的计算机视觉系统产品,也是Google AIY Projects 旗下的第二款产品(第一款产品是 Voice Kit,是一款基于树莓派的人工智能语音套件)。
它是一个 DIY 人工智能套件,用户可以自己动手,打造好玩有趣的 AI 创意作品(比如智能相机之类的)。
01/配置
Vision Kit 是一个由硬纸板拼装起来的小纸盒组成。主要核心硬件包括一个 Raspberry Pi Zero WH、一个Vision Bonnet 电路板、一个Micro SD卡,以及摄像头等等组件。
可别小瞧这个小纸盒——"小身板,大能量",这个纸盒可以处理图像识别和计算机视觉功能, 支持离线识别上千种常见物体(动物、植物)以及人脸、面部表情等。
尤其是内置的 Vision Bonnet,采用了 Intel Movidius MA 2450 处理器,它可以强化 Raspberry Pi Zero WH 的视觉处理。
此外,Google 也为 Vision Kit 提供了基于 TensorFlow 的类神经网络模型。
02/模型
AIY Vision Kit 自带多个模型,比如人脸检测、表情分析、食物检测等等。大多数是图像分类模型:(如图)
值得一提的是,Vision Kit 含有一个"狗/猫/人"的物体检测模型。而这位小哥也刚好利用这一模型,检测喵主子在厨房"胡作非为"。
过程
当然一开始并不是很顺利,可能是自家的喵太黑了(令人发指的黑),加上厨房的光线不足。利用盒子自带的模型,识别的情况让小哥不太满意。
于是小哥的小脑壳又开始转动了:自己动手、丰衣足食——为什么不用 TensorFlow 自定义训练模型呢?!(想想还有点小激动~~)
Vision Kit 灵活的拓展空间和小哥饱满的 DIY 热情完美地契合在一起...
训练模型
这位小哥在动手的同时,也积极地和网友们分享他呕心沥血提炼出来的一些训练技巧。
1.收集训练图像。
小哥为它心爱的喵主子大概拍摄了几百张图片,完美涵盖喵主子在现实世界中的不同场景(尤其是厨房)、不同光照条件、各种角度的照片。
2.手动标记每张图像。
3.准备训练数据集
将标签转换为适当的格式,制作标签映射文件,并将图像分成大型训练集和较小的评估集。
4.在对象检测配置文件中设置正确的参数。
5.准备 TensorFlow 环境。
6.训练并生成模型。
7.将模型固化。
8.在 Ubuntu 中使用 Bonnet Compiler 编译模型。
9.将编译后的模型加载到 Vision Kit 上。
10.调整示例代码以使其与编译模型一起工作。
11.运行模型代码,见证奇迹的时刻。
大家也可以在小哥的 Github 上查看具体代码:
https://github.com/chadwallacehart/aiy_custom_cat_detector
经过一段"漫长又曲折"的过程,喵主子专属的识别追踪"神器"终于打造成功了!
小哥将 Vision Kit 放在厨房,当盒子识别到喵主子的时候,会发出"哔哔"的声音。这样一来,有助于将猫吓走,防止它在厨房捣乱。
不过后来小哥发现,时间久了,他淘气的喵主子已经不再害怕盒子发出的"哔哔"声了…..(笑哭)
于是小哥打算再捣鼓接入一个机器人,让盒子识别到喵主子的时候,机器人能根据坐标,向猫猫发射小弹珠….
为了从厨房赶走喵主子,这位小哥也是心累…如果读者朋友也有这样的烦恼,不妨试一试这位小哥的做法。让我们祝小哥好运并期待他的新作品吧。
如果有粉丝购买了 Google AIY 相关的产品并创作出自己的创意作品,欢迎联系我们,将你的操作过程和成果发布在这里。我们长期征集大家的 AIY 创意作品~~
想了解更多关于 Google AIY 的详细信息及第一手新鲜资讯,敬请关注我们!