内容衔接上一讲,上节我们讲到VAE,我们为什么用VAE而不用auto-encoder呢,直觉上的原因是如果是auto-encoder,我们期待的...
先以一张图说明下 “如果我不能创造,那我并没有理解”----------理查德费曼 我们也许能让机器区分一只猫和一只狗,但是我们未来也许会希望让...
我们先讲讲编码器,就比如我们拿手写数字图片,我们输入28*28维图片,通过编码器,使其变成降维后的编码(反应其某些特性),不过因为我们常常不知道...
Manifold Learning 我们有时候的特征其实是低维度的放到高纬度上去,比如地球表面是2维的,但是被放到了3维空间,比如左下的S曲面,...
Word Embedding词嵌入向量 我们对于不同的分类,常常使用的就是1-of-N Encoding(或者叫One-hot编码),每个元素只...
Unsupervised Learning - Linear Model 无监督学习我们大致分为2种情况,聚类和无中生有化繁为简,比如呢,我们有...
什么是半监督学习呢,我们都知道有监督学习是数据都有特征和标签,而半监督的数据除了R部分有标签的,还有U部分无标签但是有特征的。半监督学习也分为t...
为什么Deeper更好,我们神经网络层数多,因为参数多,当然也表现得更好 我们比较胖短型和深瘦型,哪个有优势呢,我们需要在相同的参数量下进行比较...
我们都知道CNN常用于图像处理,也可以用一般神经网络去训练,为什么使用卷积神经网络训练呢?我们训练一个一般神经网络往往希望每层训练出一个基本的分...
文集作者