您的位置:首页 > 其它

机器人模仿人类动作一学就会,还能举一反三了 | 论文

2018-02-07 00:00 417 查看
夏乙 发自 凹非寺
量子位 出品 | 公众号 QbitAI
你在椅子上坐下、夹起一筷子毛肚、送进沸腾的红汤里、等待8秒、夹出来……动作行云流水一气呵成。人类掌握吃火锅的技能,离不开有意无意的模仿。不过,吃火锅对于机器人来说,就要难得多。想学会这一系列的动作,往往需要为它们设定复杂的目标和奖励函数。好消息是,教它们通过模仿来学习的研究又有新进展,机器人更聪明更灵活了。加州大学伯克利分校的科学家们在最新论文中提出了域自适应的元学习(Domain-Adaptive Meta-Learning),让机器人在看视频模仿人类行为时,能适应domain shift。也就是说,即使机器人的视角、环境、自身形体和视频中的人类有本质不同,它也一样能通过看一段视频快速学会其中的人类行为。
比如上面视频1分07秒的放置物体实验中,机器人面前盘子的摆放,与人类演示视频不同。但右下角用最新方法训练的机器人,还是迅速找到了正确的位置。

这项研究中展示的行为,当然没有吃火锅那么复杂,除了刚刚说过的在容器中放置物体,主要还包括推动物体、拿起物体再放到某处等等。



[b]△ 放置物体[/b]


[b]△ 推动物体[/b]


[b]△ 拿起物体再放到某处[/b]不过,凭一段视频就能学会,还能举一反三?也可以说是相当厉害了。作为一名接受教育十几年、学习了不少知识的人类,量子位相信你应该能够猜到:要具备这样的能力,得有充足坚实的基础知识储备。

伯克利的这项研究正是如此。在最关键的一段视频之前,科学家们会先用各种任务的大量视频来训练算法,帮机器人建立“先验知识”,这个过程就称为“元学习”。这时所用到的任务视频有人类的,也有机器人的。有了先验知识之后,再结合某项任务的人类演示视频,机器人就能学着完成这项任务。为了证明这种方法的有效性,他们用了两种7个自由度(DoF)的机械臂来做实验,一种是PR2,另一种是Sawyer。实验显示,使用暂时损失(temporal loss)的Domain-Adaptive Meta-Learning在PR2机械臂看一次视频模仿各类行为的试验中取得了最高的成功率。


使用Sawyer机械臂,则是为了实验用kinesthetic teaching来记录机器人演示的情况。虽然这项研究一直在让机器人模仿人类,但是几位科学家在论文中说,这种方法并不是专门用来感知人类动作的,也可以用来模仿动物,或者让真实世界中的实体机器人模拟虚拟机器人。最后,感兴趣(致力于让机器人帮你涮火锅)的同学请看论文:One-Shot Imitation from Observing Humans via Domain-Adaptive Meta-Learning
Tianhe Yu, Chelsea Finn, Annie Xie, Sudeep Dasari, Tianhao Zhang, Pieter Abbeel, Sergey Levine https://arxiv.org/abs/1802.01557
加入社群量子位AI社群13群开始招募啦,欢迎对AI感兴趣的同学,加小助手微信qbitbot5入群;
此外,量子位专业细分群(自动驾驶、CV、NLP、机器学习等)正在招募,面向正在从事相关领域的工程师及研究人员。
进群请加小助手微信号qbitbot5,并务必备注相应群的关键词~通过审核后我们将邀请进群。(专业群审核较严,敬请谅解)
诚挚招聘
量子位正在招募编辑/记者,工作地点在北京中关村。期待有才气、有热情的同学加入我们!相关细节,请在量子位公众号(QbitAI)对话界面,回复“招聘”两个字。


量子位 QbitAI · 头条号签约作者
վ'ᴗ' ի 追踪AI技术和产品新动态
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: 
相关文章推荐