机器人模仿人类动作一学就会,还能举一反三了 | 论文
2018-02-07 00:00
417 查看
夏乙 发自 凹非寺
量子位 出品 | 公众号 QbitAI你在椅子上坐下、夹起一筷子毛肚、送进沸腾的红汤里、等待8秒、夹出来……动作行云流水一气呵成。人类掌握吃火锅的技能,离不开有意无意的模仿。不过,吃火锅对于机器人来说,就要难得多。想学会这一系列的动作,往往需要为它们设定复杂的目标和奖励函数。好消息是,教它们通过模仿来学习的研究又有新进展,机器人更聪明更灵活了。加州大学伯克利分校的科学家们在最新论文中提出了域自适应的元学习(Domain-Adaptive Meta-Learning),让机器人在看视频模仿人类行为时,能适应domain shift。也就是说,即使机器人的视角、环境、自身形体和视频中的人类有本质不同,它也一样能通过看一段视频快速学会其中的人类行为。
比如上面视频1分07秒的放置物体实验中,机器人面前盘子的摆放,与人类演示视频不同。但右下角用最新方法训练的机器人,还是迅速找到了正确的位置。
![](https://ss.csdn.net/p?https://mmbiz.qpic.cn/mmbiz_png/YicUhk5aAGtBRxGr0Zzaq0v6kCuFbxAKEXnMruZLGkfgIibKsaWoLChZqEvY8KxiarfoMY9FvMdNGdqCrtOOIB6Lg/640?wx_fmt=png)
这项研究中展示的行为,当然没有吃火锅那么复杂,除了刚刚说过的在容器中放置物体,主要还包括推动物体、拿起物体再放到某处等等。
![](https://ss.csdn.net/p?https://mmbiz.qpic.cn/mmbiz_png/YicUhk5aAGtBRxGr0Zzaq0v6kCuFbxAKEG3gmHh4wWOSdhm0LeDKgNq4ETDR3D28u8gialBPoQHaEDex3UZmBbpQ/640?wx_fmt=png)
[b]△ 放置物体[/b]
![](https://ss.csdn.net/p?https://mmbiz.qpic.cn/mmbiz_png/YicUhk5aAGtBRxGr0Zzaq0v6kCuFbxAKEpyNpEibvVohkT8Mxia1KhNqwibYqZD4WfWGUEDmkxhIEnh5PHObpYYgFw/640?wx_fmt=png)
[b]△ 推动物体[/b]
![](https://ss.csdn.net/p?https://mmbiz.qpic.cn/mmbiz_png/YicUhk5aAGtBRxGr0Zzaq0v6kCuFbxAKEGicWW89yhlh36bbLYxHDia8quQ4M1SxYx4ZW4Vxyn6zAFuVcsP2IwmVA/640?wx_fmt=png)
[b]△ 拿起物体再放到某处[/b]不过,凭一段视频就能学会,还能举一反三?也可以说是相当厉害了。作为一名接受教育十几年、学习了不少知识的人类,量子位相信你应该能够猜到:要具备这样的能力,得有充足坚实的基础知识储备。
![](https://ss.csdn.net/p?https://mmbiz.qpic.cn/mmbiz_png/YicUhk5aAGtBRxGr0Zzaq0v6kCuFbxAKERbp4T4X4R0uOLGXXq7iciac2J3hQfK2raFUsnJFBB0iaWUU6vSgN6vlVg/640?wx_fmt=png)
伯克利的这项研究正是如此。在最关键的一段视频之前,科学家们会先用各种任务的大量视频来训练算法,帮机器人建立“先验知识”,这个过程就称为“元学习”。这时所用到的任务视频有人类的,也有机器人的。有了先验知识之后,再结合某项任务的人类演示视频,机器人就能学着完成这项任务。为了证明这种方法的有效性,他们用了两种7个自由度(DoF)的机械臂来做实验,一种是PR2,另一种是Sawyer。实验显示,使用暂时损失(temporal loss)的Domain-Adaptive Meta-Learning在PR2机械臂看一次视频模仿各类行为的试验中取得了最高的成功率。
![](https://ss.csdn.net/p?https://mmbiz.qpic.cn/mmbiz_png/YicUhk5aAGtBRxGr0Zzaq0v6kCuFbxAKETlfYyrnsQrgXUoCTmAhXd9pBVRwJ4qUChXSOtnGlQv1SePicznGpYEw/640?wx_fmt=png)
使用Sawyer机械臂,则是为了实验用kinesthetic teaching来记录机器人演示的情况。虽然这项研究一直在让机器人模仿人类,但是几位科学家在论文中说,这种方法并不是专门用来感知人类动作的,也可以用来模仿动物,或者让真实世界中的实体机器人模拟虚拟机器人。最后,感兴趣(致力于让机器人帮你涮火锅)的同学请看论文:One-Shot Imitation from Observing Humans via Domain-Adaptive Meta-Learning
Tianhe Yu, Chelsea Finn, Annie Xie, Sudeep Dasari, Tianhao Zhang, Pieter Abbeel, Sergey Levine https://arxiv.org/abs/1802.01557 — 完 —
加入社群量子位AI社群13群开始招募啦,欢迎对AI感兴趣的同学,加小助手微信qbitbot5入群;
此外,量子位专业细分群(自动驾驶、CV、NLP、机器学习等)正在招募,面向正在从事相关领域的工程师及研究人员。
进群请加小助手微信号qbitbot5,并务必备注相应群的关键词~通过审核后我们将邀请进群。(专业群审核较严,敬请谅解)
诚挚招聘
量子位正在招募编辑/记者,工作地点在北京中关村。期待有才气、有热情的同学加入我们!相关细节,请在量子位公众号(QbitAI)对话界面,回复“招聘”两个字。
![](https://ss.csdn.net/p?https://mmbiz.qpic.cn/mmbiz_jpg/YicUhk5aAGtB9aqX8xx3jzHjt5q9T3dPRcLjssibfibPI4ptuRZrcaCicfK1VY7ianibOJHibJruVHFfWAamsicYu13Fqw/640?wx_fmt=jpeg)
量子位 QbitAI · 头条号签约作者
վ'ᴗ' ի 追踪AI技术和产品新动态
量子位 出品 | 公众号 QbitAI你在椅子上坐下、夹起一筷子毛肚、送进沸腾的红汤里、等待8秒、夹出来……动作行云流水一气呵成。人类掌握吃火锅的技能,离不开有意无意的模仿。不过,吃火锅对于机器人来说,就要难得多。想学会这一系列的动作,往往需要为它们设定复杂的目标和奖励函数。好消息是,教它们通过模仿来学习的研究又有新进展,机器人更聪明更灵活了。加州大学伯克利分校的科学家们在最新论文中提出了域自适应的元学习(Domain-Adaptive Meta-Learning),让机器人在看视频模仿人类行为时,能适应domain shift。也就是说,即使机器人的视角、环境、自身形体和视频中的人类有本质不同,它也一样能通过看一段视频快速学会其中的人类行为。
比如上面视频1分07秒的放置物体实验中,机器人面前盘子的摆放,与人类演示视频不同。但右下角用最新方法训练的机器人,还是迅速找到了正确的位置。
这项研究中展示的行为,当然没有吃火锅那么复杂,除了刚刚说过的在容器中放置物体,主要还包括推动物体、拿起物体再放到某处等等。
[b]△ 放置物体[/b]
[b]△ 推动物体[/b]
[b]△ 拿起物体再放到某处[/b]不过,凭一段视频就能学会,还能举一反三?也可以说是相当厉害了。作为一名接受教育十几年、学习了不少知识的人类,量子位相信你应该能够猜到:要具备这样的能力,得有充足坚实的基础知识储备。
伯克利的这项研究正是如此。在最关键的一段视频之前,科学家们会先用各种任务的大量视频来训练算法,帮机器人建立“先验知识”,这个过程就称为“元学习”。这时所用到的任务视频有人类的,也有机器人的。有了先验知识之后,再结合某项任务的人类演示视频,机器人就能学着完成这项任务。为了证明这种方法的有效性,他们用了两种7个自由度(DoF)的机械臂来做实验,一种是PR2,另一种是Sawyer。实验显示,使用暂时损失(temporal loss)的Domain-Adaptive Meta-Learning在PR2机械臂看一次视频模仿各类行为的试验中取得了最高的成功率。
使用Sawyer机械臂,则是为了实验用kinesthetic teaching来记录机器人演示的情况。虽然这项研究一直在让机器人模仿人类,但是几位科学家在论文中说,这种方法并不是专门用来感知人类动作的,也可以用来模仿动物,或者让真实世界中的实体机器人模拟虚拟机器人。最后,感兴趣(致力于让机器人帮你涮火锅)的同学请看论文:One-Shot Imitation from Observing Humans via Domain-Adaptive Meta-Learning
Tianhe Yu, Chelsea Finn, Annie Xie, Sudeep Dasari, Tianhao Zhang, Pieter Abbeel, Sergey Levine https://arxiv.org/abs/1802.01557 — 完 —
加入社群量子位AI社群13群开始招募啦,欢迎对AI感兴趣的同学,加小助手微信qbitbot5入群;
此外,量子位专业细分群(自动驾驶、CV、NLP、机器学习等)正在招募,面向正在从事相关领域的工程师及研究人员。
进群请加小助手微信号qbitbot5,并务必备注相应群的关键词~通过审核后我们将邀请进群。(专业群审核较严,敬请谅解)
诚挚招聘
量子位正在招募编辑/记者,工作地点在北京中关村。期待有才气、有热情的同学加入我们!相关细节,请在量子位公众号(QbitAI)对话界面,回复“招聘”两个字。
量子位 QbitAI · 头条号签约作者
վ'ᴗ' ի 追踪AI技术和产品新动态
相关文章推荐
- 看一遍人类动作就能模仿,能理解语义的谷歌机器人登上无监督学习的新高度
- 高科技机器人能否成为人类未来社会的忠实伙伴?
- jQuery模仿人类打字效果插件typetype
- “寓教于乐”,DeepMind新研究让机器人从0开始学习复杂精细动作
- 终结者成真?专家忧机器人威胁人类
- 吸管除了喝饮料还能干嘛?做机器人呀~
- 高科技机器人能否成为人类未来社会的忠实伙伴?
- 谷歌教机器人理解语义,像人一样学习复杂技能 | 附3篇论文
- 《科学》封面重磅论文:人工智能终于能像人类一样学习
- 大数据早报:微软宣布推出新Azure机器学习工具 这个机器人可以像人类一样自然地行走(9.27)
- 虚拟社交、机器人、温柔触摸:人工智能正介入人类情感 | 观点
- 东北大学研究生造机器人去桃核 图像识别术与去核动作结合
- 深度长文:如何制造具有自我意识、无限接近人类的的机器人?
- 震惊!她是第一个获得人类公民身份的机器人!那么和她XXOO算是出轨吗?
- 模仿动物行走的腿式机器人是未来发展趋势吗?
- 机器人方向毕业设计论文撰写体会
- 【ICCV 2017论文笔记】我们应当如何理解视频中的人类行为?
- 【AlphaGo Zero】AlphaGo Zero横空出世,DeepMind Nature论文解密不使用人类知识掌握围棋
- AI研究员正重新考虑让机器人融合人类知识
- 机器人成功给猪做手术:比人稳定但仍难获人类信任