240 发简信
IP属地:西藏
  • 有种豁然开朗的感觉,就是不知道我们讲PCA的时候,是通过特征值和特征向量,然后选取特征值大的前几项所对应的特征向量组成的线性变换矩阵来对原始空间进行降维的。这跟你讲的基于最小化损失函数的是一个思路。

    (概率)PCA和(变分)自编码器

    1.介绍 主成分分析(PCA)和自编码器(AutoEncoders, AE)是无监督学习中的两种代表性方法。 PCA的地位不必多说,只要是讲到降维的书,一定会把PCA放到最前...

  • (概率)PCA和(变分)自编码器

    1.介绍 主成分分析(PCA)和自编码器(AutoEncoders, AE)是无监督学习中的两种代表性方法。 PCA的地位不必多说,只要是讲到降维的书,一定会把PCA放到最前...

  • [DeepBayes2018]Day 1, lecture 3. Models with latent variables and EM-algorithm

    隐变量模型 在隐变量模型这堂课中,主要内容为以下几个方面 KL散度 混合高斯模型 EM算法 离散型和连续型隐变量 案例:Word2Vec 1. KL散度(Kullback-L...

  • [DeepBayes2018]Day 1, practical session 2. Bayesian reasoning

    问题一 贝叶斯证据不充足情形 讲的是贝叶斯公式的简单应用,采用哈利波特里面的场景作为例子。学过数理统计的应该知道有个关于被诊断为癌症与实际患癌症的这个例子。 问题二 多项式分...