本文系智能工作室(公众号smartman 163)出品。聚焦AI,读懂下一个大时代!
【智能讯4月13日消息】我们已经训练机器学习系统来识别物体、导航路线、辨别面部表情,尽管这可能很困难,但它们甚至都没有达到模拟狗的行为这种复杂程度。这个研究项目就是要达到这个目的——当然,是以非常有限的方式。通过观察一只狗的行为,AI可以掌握如何像狗一样行动的基础知识。
这是华盛顿大学和艾伦人工智能研究所的合作项目,论文成果将于今年6月在国际计算机视觉与模式识别会议(CVPR)上发表。
为什么要这样做?尽管人们已经做了很多模拟感知的子任务,比如识别一个物体并把它捡起来,但是在“将理解视觉数据的能力拓展到可以在视觉世界中执行任务的程度”这个方面,相关研究还比较少。换句话说,研究的最终目标不是创造一双眼睛,而是创造可以控制眼睛行为的事物。
为什么选择狗?因为狗是足够复杂的智能代理,“尽管它们的目标和动机通常是未知的。”换句话说,狗很聪明,但我们不知道它们在想什么。
作为对这一研究方向的初步尝试,研究小组希望通过密切监测狗的行为,并将其动作和行为映射到它所看到的环境中,最终可以建立一个精确预测这些运动的系统。为了做到这一点,他们为一只名为“Kelp M. Redmon”的爱斯基摩犬装载了一套基本的传感器。Kelp的头上有一个GoPro相机,在腿、尾巴和躯干上有6个惯性测量单元,这些设备可以用来判断物体的位置。此外还有一个麦克风和一个将数据连接在一起的微处理器。
研究人员记录了Kelp在数小时内的活动,包括在不同环境中行走、取东西、吃东西、在公园玩耍等,并且把狗的动作与它看到的事物相同步。最终的数据结果整合成“在狗的环境中以自我为中心的行为数据集(Dataset of Ego-Centric Actions in a Dog Environment)”,并用这些数据集训练新的人工智能代理。
这个智能代理将预测狗在特定的感官输入下会做些什么。感官输入包括房间或街道的视图,或者是一个飞过的球。当然,这并没有深入到细节,但即使只是弄清楚如何移动它的身体以及移动到哪里也是一个相当重要的任务。
研究人员之一Hessam Bagherinezhad在电子邮件中解释道:“它学习如何移动关节,学习如何在走路或跑步时避开障碍物,它将学会追逐松鼠、跟随主人、在玩的时候追踪飞在空中的玩具。”这些是计算机视觉和机器人技术的一些基本任务,我们一直试图通过为每个任务收集单独的数据来解决单项任务(例如运动计划、可行走的表面、对象检测、物体跟踪、人物识别)。
这可能会产生一些相当复杂的数据:例如,狗的模型必须知道,当它需要移动的时候,它可以行走(就像狗一样);它不能在树、汽车或沙发上行走。所以这个模型也学到了这一点,这可以作为一个计算机视觉模型单独部署,以便找出宠物(或小型机器人)在给定的图像中所能到达的位置。
研究人员表示,这只是一个获得成功的初步实验,获得的成果有限。还有人可能会考虑引入更多的感官(比如嗅觉),或者观察模型如何从一只狗拓展到其它狗身上。他们总结道:“我们希望这项工作能为更好地理解视觉智能以及理解居住在我们这个世界上的其他智能生物铺平道路。”
(选自:techcrunch 作者:Devin coldewey 编译:智能 参与:nariiy)
关注智能公众号(smartman163),获取人工智能行业最新报告。