摘要:
作为一种新兴的无监督方法,多视图聚类为研究多视图数据中的隐藏结构提供了一种好方法,并在机器学习和数据挖掘领域引起了广泛关注。一种流行的方法是识别用于捕获多视图信息的公共潜在子空间。但是,由于不受监督的学习过程,这些方法仍然受到限制,并且从不同的角度来看,它们受到大量嘈杂信息的困扰。为了解决此问题,我们提出了一种新颖的多视图子空间聚类方法,称为自监督深度多视图子空间聚类(S2DMVSC)。它将频谱聚类和相似性学习无缝集成到深度学习框架中。S2DMVSC有两个主要优点。一种是可以充分利用聚类结果来监督每个视图的潜在表示学习(通过分类损失)和多个视图的公共潜在子空间学习(通过频谱聚类损失)。另一个是数据对象之间的亲和度矩阵是根据high-level和聚类驱动的表示自动计算的。在包括原始功能和多个手工功能在内的两种情况下进行的实验,证明了所提出方法相对于最新基准的优越性。
by fully exploiting the complementary and consistency among different views
focus on multi-view clustering(no supervised information to guide the learning process)
- S2DMVSC具有通过设计自我监督框架来获得更好的潜在表示的能力。
- 通过在编码器和解码器之间设计一个自表达层,S2DMVSC可以无缝捕获多个视图之间的关系。
- S2DMVSC将亲和性学习和频谱聚类集成到一个统一的框架中,可以消除不完善的相似性指标并进一步提高最终聚类性能。
- S2DMVSC模型的实验在多个图片数据集上进行,并取得了很好的效果。
模型拆分理解:
-关于多视图数据的子空间聚类的自表示方法应用:
在关于自表示的过程中,作者首先引入的是关于多视图数据中子视图的自表示学习,为了更好的利用来自多个视图间的补充信息,改而去学习“view-shared self-expressive”见公式(2)。这部分对应于S2DMVSC中的“view-shared self-expressive layer”。从模型的示意图中可以看到,在此layer中,输入是来自AE不同视图encoder的输出,通过学习子空间统一表示的C矩阵,再将输出喂入AE的decoder中。
-AE:encoder & decoder
利用AE的重构性质来学习关于特定视图v的潜在表示z,并且将关于v的重构误差加入损失函数中。在训练过程中,这部分需要进行预训练来保证模型参数初始化的可行性。通过AE关于特定视图的学习以及对共享视图的自表示学习,可以学习到统一子空间的表示形式C,以此构造亲和力矩阵S用于谱聚类得到聚类结果进行整个模型的自监督部分。
这部分对应于S2DMVSC中的“Representation learning part”,以及连接“view-shared self-expressive layer”的部分,并且通过“view-shared self-expressive layer”可以得出本轮的C矩阵,从而提供给“Spectral clustering part”用于自监督信息的生成。
-监督信息的生成和使用
同时这部分的计算需要添加“spectral clustering part”的结果进行监督,而这部分的信息来自之前所提到的“view-shared self-expressive layer”输出的C计算得到“spectral clustering part”的输入--亲和力矩阵S。
通过这个部分的算法,我们可以学习到矩阵Q。作者在得到Q的基础上用于监督“view-shared self-expressive”,并且通过对Q的每一行使用了k-means算法来得到“binary clustering label”,这里来对应“unified FC classifier”的输出Y。因此我们可以生成自监督分类部分的损失函数CEC,
第一个交叉熵损失项可确保伪标记Y和聚类标记Q保持一致,第二个中心损失项可最大程度地减少集群内变化。
整体的模型图分析就是这样。
模型训练过程:
- 对于多视图AE的部分先进行预训练,并初始化网络参数。
- 随机初始化模型的其余part
- 利用约束式对模型进行更新