英特尔开发出50美元的3D打印机器人OpenBot,用手机做大脑

作者 donggua

2020-10-13 02.开源硬件, 03.机器人 无评论 脚印:

只需要400块不到,就能拥有一个可编程的AI小机器人,而且还能用手机控制?

这就是英特尔实验室(Intel Lab)最新公布的研究成果OpenBot。

作为一个小型电动汽车,它可以被植入AI目标检测算法,实时跟踪行人或者目标物体。

例如,跟着家里的小朋友出去遛弯:

不仅如此,还能自动导航。

像是在办公室避开障碍物,甚至化身一个小小的摄像机,把拍摄到的东西记录下来:

而这一切,只需要你自己的手机,再加上成本总共不到400元的3D打印零件!

下图是小车需要所有零件,包括3D打印车身、速度传感器、电池……

据了解,在这款机器人研发出来之前,传感器性能较好、设备配置较先进的机器人,基本需要2000-5000美元的配置;

即使是家用的小型手机可编程机器人,配置也需要250美元左右,实时传感的效果还不太好。

研究者们表示,其实全球超过40%的人都拥有智能手机,如果利用上手机的性能,这个成本50美元的小机器人的确不难实现。

况且,OpenBot的所有程序开源,哪怕是想要自己动手配置一个,似乎也不是问题?

下面来「解剖」一下这个机器人。

软件:两大功能

1、跟踪行人:目标检测算法

事实上,跟踪行人的设计,采用的是目标检测SSD算法,配置MobileNet的神经网络框架。

MobileNet-SSD目标检测算法框架的优势在于,它真的非常小,加上整个网络结构,算下来也就30MB不到。

△ SSD算法的先验框,根据目标形状选框的形状

无论是安装在手机上,还是树莓派上,这个算法都是移动设备进行AI目标检测算法的好选择。

当然,目标检测毕竟只是图像级,如果需要达成跟踪效果,还需要一个小算法,使得程序能周期性运行,达到「实时检测」的效果。

2、自动导航:只需要1.3M参数

事实上,此前能实现自动导航的软件参数量达到了9.1M,而英特尔实验室的研究人员将这个程序的参数量进一步缩小到了1.3M,直接减少了7倍的参数量。

这个程序同样是实时的,通过设计一个神经网络,类似于命令行输入变量的条件模仿学习,实现了这个「自动导航」的驾驶策略。

而且,只需要30分钟,就能训练好这个网络。从整体软件部分来看,设计是这样的:

在手机端,采用游戏控制器的接口链接小车,这里包括车辆的控制、行驶模式等功能。

当然,呈现给用户的会是一个图像接口,更加容易上手。

此外,它也会以音频的形式,将信息反馈给用户。

至于Arduino端,则实现如下几个功能:PWM动力控制、负责执行指示信号、测量轮子速度、监控电池电量、以及与手机端的信号沟通。

如果对软件部分感兴趣的话,可以学习一下他们的开源算法(文末附项目链接)。

硬件:不是树莓派

事实上,这个机器人最亲民的地方在于,只需要通过手机,就能控制机器人。

不仅如此,由于配件简单,基本上可以自己动手组装。

当然,如果你想要自己制作一个更好看的车身,用3D打印就行:

而这个小车的整体硬件电路图如下,结构非常简单,连上4个车轮,2个LED灯,2个速度传感器,而可编程器件则与手机相连。

也就是说,只要在可编程器件上植入相应的程序,小车就会按照你的意愿跑起来。

当然,作者表示,这个毕竟是更贴近于「家庭装」的AI机器人,如果需要更高端的轻量级嵌入式设备,树莓派是个非常不错的选择,但不一定能实现手机拥有的这么多功能。

如下图所示,以手机配置的机器人除了LiDAR,其他的功能如WiFi、蓝牙连接、相机都可以使用。

所以,实现这个机器人,最需要的是一部好手机?

OpenBot的小限制

事实上,Intel Lab从2018年起就开始研制低成本、高性能的小型移动AI机器人,而刚刚推出的这个小机器人,已经是第3代了。

从下图来看,第3代的AI机器人,不仅支持5G,而且相机也从1200万像素增加到了最大10800万像素(也与手机性能有关)。

嗯,似乎发现了什么华点:

没错,这个项目有个限制,目前只能应用于安卓端。

研发团队表示,如果这个项目比较受欢迎,团队将会考虑开发适配于iPhone的程序。

不过,由于这是开源项目,所以iOS的开发人员自己动手来一个,也未尝不可(眼神暗示)。

项目链接:

https://www.openbot.org/

参考链接:

https://towardsdatascience.com/got-50-turn-your-phone-into-a-programmable-robot-bf69d3df1231

https://arxiv.org/pdf/2008.10631.pdf

发表评论

电子邮件地址不会被公开。 必填项已用*标注