https://blog.csdn.net/qq_31531635/article/details/70670271?locationNum=9&fps=1
对生成对抗网络的理解:
(gan在学习数据的分布)
基本思想:整个网络由一个生成器G(generator)和一个判别器D(discriminator)构成,介于博弈论中的二人零和博弈。
通俗易懂理解:GAN 的优化过程是一个极小极大博弈 (Minimax game)问 题, 优化目标是达到纳什均衡,使生成器估测到数据样本的分布。
极大极小博弈怎么理解?可以想象成损失函数即标签数据与训练得到数据得到的值之间差异的描述,当损失函数最小时,不就是标签数据与训练数据得到值之间的差异最小化。再说一句,后续大多数对GAN的研究都是对这个GAN的优化过程进行改进。
纳什均衡怎么理解?生成器G通过不断的训练学习来加强自己的造假能力也就是生成G(z),让判别器D无法判别出G(z)和x有啥区别。而判别器D就是通过不断训练学习来提升自己的判别能力,也就是判别出x就是x,G(z)你就是假的!
https://blog.csdn.net/u012223913/article/details/75051516?locationNum=1&fps=1
对生成模型和判别模型的理解
https://blog.csdn.net/zouxy09/article/details/8195017
生成模型:学习的是样本分布情况,用的是联合概率分布
典型的生成模型有:朴素贝叶斯和隐马尔科夫模型等
判别模型:学习的是决策函数或者决策条件,用的是条件概率
典型的判别模型有:k近邻,感知级,决策树,支持向量机等
cycleGan的功能:自动将某一类图片转换成另外一类图片。