您的位置:首页 > 理论基础 > 计算机网络

入门,训练GAN神经网络

2017-11-27 21:46 316 查看
https://zhuanlan.zhihu.com/p/27440393 http://blog.csdn.net/on2way/article/details/72773771
先立个flag,下次有时间再来完善它。(听罗帅哥学长说,搞了2个月,感觉坑略多啊

。。。。) https://github.com/search?utf8=%E2%9C%93&q=caffe+GAN&type=
还有收藏的,没细查,下次去找

整体:
首先明确,我们的目的是要一个能够模仿高手:即生成器,它是一个反卷积网络。有了它就可以大量模仿出我们想要的数据;
那么如何得到我们的生成器?这时候就想到用一个识别器(它是一个普通的卷积网络),来打辅助。通过2者不断螺旋迭代上升训练(难点也在这),最终帮我们得到一个非常满意的生成器。
具体:
每次迭代就像周伯通的左右手互相搏斗,先拿点真实数据训练识别器的火眼晶晶,然后让生成器去模仿一些假冒货,识别器一眼就看出来了,然后就开始提高生成器的造假模仿能力。
达到什么程度,才停止一轮呢?有个判别公式:p(F)/(p(F)+p(T))这是识别器的概率,最终让识别器认为P(F)也认不出来,以为是真的,所以二者近似,最终为0.5,表示识别器也认不出来了,那我们的生成器的模仿能力相对不错了。

那么下一轮我们就要提高我们的识别器的识别能力了(具体如何?没研究),然后同样道理,生成器一下子被发现假的,所以我们又提高生成器造假能力。这样生成器,识别器不断迭代提升。

最终有个loss函数,大家先明确loss值越小说明我们训练的模型越好。所以整体的有个loss公式???下次贴出来。
使得识别器的最终版本的识别能力肯定是越来越强。同样生成器的造假模仿能力也越来越强,所以识别器的区分能力最强,生成器的模仿数据与真实数据的误差越来越小。同时还满足我们的loss函数值越小模型性能越好的评价标准,这个loss函数设计巧妙。

有个具体的loss函数拆分表达式????下次贴出,也是满足识别器对真,假数据识别能力都很强,而且loss值很小。
同时满足,生成器的模仿能力很强,也就是生成器的模仿数据与真实数据的误差越来越小,,而且loss值很小。
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: