您的位置:首页 > 其它

百度顶会论文复现营论文心得

2020-08-06 19:43 106 查看

百度顶会论文复现营论文心得-day1

博主参加了今天百度AI studio主办的顶会论文复现营,现进行到论文精读阶段,需要从约10篇文章中选择出1篇,写下心得体会,然后作为作业进行提交,这也是我第一次在CSDN上写文章, 全当练手了。
这几篇论文里,按主要内容大致分为视频分类方向和GAN两个,由于博主科研方向与视频分类不太相关,所以就是想选择GAN相关的了,GAN还是蛮有意思的,其中有篇论文是BIGGAN的,本想很想做,但是硬件平台根本不允许,故放弃,最终选择了这篇:《Few-shot Video-to-Video Synthesis》,附上论文连接:链接:https://pan.baidu.com/s/1A5hKW-97phVDZBvCTXWsOA  密码:vgg8。
这篇论文的摘要大致翻译是:视频到视频合成(vid2vid)旨在将输入的语义视频(例如人体姿势或分割蒙版的视频)转换为输出的逼真的视频。

尽管vid2vid的最新技术已经取得了显着进步,但现有方法存在两个主要局限性。
首先,它们需要大量数据。
训练需要目标人体或场景的大量图像。
第二,学习的模型具有有限的泛化能力。
姿势到人的vid2vid模型只能合成训练集中单人的姿势。
它不会推广到不在训练集中的其他人。
为了解决这些限制,我们提出了一个简单的vid2vid框架,该框架可通过在测试时利用目标的少量示例图像来学习合成先前未见过的主题或场景的视频。
我们的模型通过利用注意力机制的新型网络权重生成模块实现了这种快速的泛化能力。
我们进行了广泛的实验验证,并使用几个大型视频数据集(包括人类跳舞视频,谈话视频和街头现场视频)与强基准进行了比较。
实验结果验证了所提出框架在解决现有vid2vid方法的两个局限性方面的有效性。
可以在我们的网站上找到代码。
总结来说,创新就是两点,1是支持小样本量2是支持泛化到训练集中没有的人物。
由于时间仓促(博主还在上班),后续会继续更新,就当自己的记录了,目前先把作业交上去。

内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: