论文阅读“Self-supervised Graph Convolutional Network for Multi-view Clustering”

Xia W, Wang Q, Gao Q, et al. Self-supervised Graph Convolutional Network for Multi-view Clustering[J]. IEEE Transactions on Multimedia, 2021.

摘要翻译

现有的基于图卷积网络(GCN)的多视图学习方法,尽管有初步的有希望的结果,但由于直接使用图结构作为视图描述符,可能会抑制多媒体数据的多视图学习能力。主要原因是,在实际的多媒体应用中,图形结构可能包含异常值。此外,现有方法没有利用从获得的不准确的聚类标签中学习嵌入信息,导致聚类结果较差。为此,本文提出了一种用于多视图聚类(SGCMC)的端到端自监督图卷积网络。具体来说,SGCMC通过欧拉变换将原始节点内容映射到复杂空间,为图结构数据构造了一个新的视图描述符,这不仅抑制了异常值,还揭示了数据中嵌入的非线性模式。同时,所提出的SGCMC使用聚类标签来指导潜在表示和系数矩阵的学习,然后利用系数矩阵进行后续的节点聚类。这样,聚类和表示学习就可以无缝地连接起来,目的是实现更好的聚类结果。大量的实验表明,所提出的SGCMC优于最先进的方法。

在论文的Intro部分,作者提到了在处理图结构数据时的Co-GCN。该模型(Co-GCN)首先将节点内容和图结构视为不同的视图描述符,并分别为每个视图构造最近邻图。然后为每个视图训练一个图编码器,通过聚合每个视图的潜在表示形式来获得下游任务的公共表示。
虽然Co-GCN为多视图学习提供了一个新的解决方案,但它仍然有以下缺点:

  • 在处理图结构数据时,它直接利用图结构作为视图描述符,这可能会抑制多视图学习的能力。
  • 它忽略了嵌入在不准确的聚类标签中的有用信息。

作者提出的SGCMC包括两个步骤。第一步旨在学习每个视图的潜在表示和不同视图共享的系数矩阵,将不同视图的输入映射到SGCMC正向路径forward pathway的潜在空间中。第二步实现节点聚类,并使用不准确的聚类标签来指导潜在表示和系数矩阵的学习。有了这样的策略,即使没有提供真正的label信息,SGCMC仍然可以端到端的进行训练。同时,这种方法将导致更好的系数矩阵和优越的聚类性能。

模型浅析
  • View Descriptor Construction 视图描述构造

    首先是关于数据的描述

现有的节点聚类方法只有原始节点描述符X^{(1)}。对于多视图设置,作者利用欧拉变换(Euler principal component analysis,2013)来提取非线性特征作为一个新的视图描述符X^{(2)}。更具体地说,使用欧拉变换将一个任意向量x_p \in R^{d_v}映射到复表示z_p \in C^{d_v}上,具体的做法可以形式化为:


其中,i是单位虚数,\alpha \in R^{+}是频率值,并被调整以抑制由异常值引起的值。x_p∈X{(1)}是第p个节点的原始描述符,z_p∈Zx_p的欧拉表示。所以这里等价为:X^{(2)}=Z

  • 子空间节点聚类模块
    子空间聚类的目的是学习一个由不同视图共享的共同系数表示矩阵,然后使用该矩阵将每个节点分配到这个新子空间中的K个集群中的一个。由此,SGCMC得到了具有两个联合模块的节点聚类结果。一种是具有图注意自动编码器的子空间聚类模块,另一个是一个自监督的学习模块用于同时监督隐含表示的学习和系数表示的学习。
    与通常的多视图图表示一致,作者假设 每个视图有着一样的图结构表示A,即A=A^{(1)}=A^{(2)}F^{(v)} \in R^{d_{l2}×N}是对应的由图注意力编码器得到的隐含表示,其中d_{l2}是隐含表示的维度。\hat{A}^{(v)}\hat{X}^{(v)}分别是重建的图结构和节点内容。
    具体来说,SGCMC通过一系列非线性变换逐步将原始样本\{X^{(v)}, A^{(v)} \} 映射到潜在表示F^{(v)}中。在这里,这些转换是由GATE(Graph attention auto-encoders)建模的。为了缓解不同F^{(v)}之间的异质差距,并更好地对齐潜在表示,作者在所提出的SGCMC中建立了一个多视图共享的自动编码器。

【 In order to relieve the heterogeneous gap between different F^{(v)} and better align latent representation, we build a multi-view shared auto-encoder in the proposed SGCMC.】

多视图共享自动编码器由一个四层图注意自动编码器,即两层编码器和两层解码器编码器组成。除了内容的重建之外,论文还利用内部乘积解码器来重建每个视图的图结构A^{(v)}。为了便于表示,第v个视图的潜在表示可表示为:

其中,Θ_\epsilon表示多视图共享图注意编码器的可训练参数。为了强制表示F^{(v)}比原始数据更适合聚类,SGCMC在此使用了自表达学习的良好特性来获得一个视图共识系数表示。为了获得不同视图共享的良好系数矩阵,模型对第v个视图的潜在表示F^{(v)}采用自我表达运算,可以定义为
其中,C∈R^{N×N}为视图-共识系数表示。同时为了防止简单的解决方案C=I,模型在设置的时候约束C_{pp}=0。因此,SGCMC最小化了以下目标函数L_{Sub}:

为了确保SGCMC能够在不同视图之间学习一致的子空间C,模型的优化使用一致的表示约束L_{Con}来捕获嵌入在不同视图中的几何关系相似性。

当我们得到系数表示C时,诱导亲和矩阵可以通过∆=1/2(|C|+|C^{T}|)。并且通过在亲和矩阵\Delta上应用谱聚类算法得到聚类结果,也就是对应样本的伪标签。
同时,为了确保潜在表示F^{(v)}保留足够的节点内容信息和图结构信息,随后将每个视图的新表示F^{(v)}C输入图注意解码器重构原始节点内容X^{(v)}和内积解码器重构原始图结构A^{(v)}。因此,图注意解码器与编码器具有对称的结构。
论文通过优化节点内容重构损失L_{AR}和图结构重构损失L_{GR}来训练具有注意机制的图自动编码器。

  • 自监督模块
    作者在该模块引入了分类思想使用cross-entropy监督表示学习。
    其中,\hat{L}为聚类输出的伪标签信息,\hat{Y}^{(v)}是每个视图分类器的输出结果。并且作者指出,在每轮训练中,\hat{L}是固定的。
    为了利用聚类标签矩阵中的信息,模型同时也最小化系数矩阵C与聚类标签矩阵\hat{L}之间的不一致性。
    其中,\hat{l_p},\hat{l_q}则是在标签矩阵中,被聚类到同一个类簇中的样本所对应的表示。因此,以往的聚类结果可以为系数矩阵C的微调提供自监督信息,有助于节点子空间的聚类。
    注:由于光谱聚类提供的聚类标签是一个未知的排列,因此导致连续两个时期的类标签可能不一致。模型采用匈牙利算法来寻找之前迭代的伪标签之间的最优对齐,然后将这些伪标签输入自我监督学习模型。
    Fixing \hat{Y}, we update other parameters in SGCMC for T_0 epoches, and then update \hat{Y} once for obtaining stable results.
  • 实现细节

    因此,我们在端到端可训练框架中结合子空间节点聚类、自监督学习。所提出的SGCMC的目标函数被归纳为

    整体的算法如下:

一点思考:
S:欧拉变换是否可以作为一种对比学习的方式引进
作者的框架可以说是以GTAE为基础模型,通过在多视图之间共享编码和解码的权重,从而达到减少参数和共同训练的目的。同时,为了达到多视图之间聚类一致性的目的,融合了一个自表示的系数矩阵作为新学习的子空间表示然后用于谱聚类。并且为了更好的监督伪标签信息之间的分配,还单独为每个视图都构造了FCN用于分类。使用聚类所得的伪标签信息和分类的结果进行比对,最小化corss-entropy loss以监督各视图的表示学习。
整个模型看起来很庞大,但是其实作者针对的数据集并不是真正的多视图任务,只是用欧拉变换构造了另一个视图X^{(2)}=Z。在后续的对比学习的探索中,可以为多视图构造欧拉变换表示,做为数据增强。

©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 202,607评论 5 476
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,047评论 2 379
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 149,496评论 0 335
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,405评论 1 273
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,400评论 5 364
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,479评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,883评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,535评论 0 256
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,743评论 1 295
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,544评论 2 319
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,612评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,309评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,881评论 3 306
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,891评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,136评论 1 259
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,783评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,316评论 2 342

推荐阅读更多精彩内容