论文阅读“Supporting Clustering with Contrastive Learning”

Zhang D, Nan F, Wei X, et al. Supporting Clustering with Contrastive Learning[J]. arXiv preprint arXiv:2103.12953, 2021.

摘要翻译

无监督聚类的目的是根据在表示空间中测量的距离来发现数据的语义类簇。然而,在学习过程的开始,不同的类簇通常在表示空间中相互重叠,这给基于距离的聚类(实现了不同类别之间的良好分离)带来了重大的挑战 。基于此,我们提出了“ Supporting Clustering with Contrastive Learning (SCCL) ”– 一个新的框架来利用对比学习来促进更好的分离。模型在短文本聚类上进行性能评估,并表明SCCL在大多数基准数据集上显著提高了最先进的结果,准确率提高了3%-11%和标准化互信息方面改善了4%-15%。此外,我们的定量分析证明了,当使用ground truth 聚类标签进行评估时,SCCL 在利用自下而上的实例区分和自上而下的聚类优势来实现更好的类簇内和类簇间距离方面的有效性。

bottom-up instance discrimination - 自上而下的实例区分
top-down clustering - 自上而下的聚类
intra-cluster and inter-cluster distances - 类簇内和类簇间距离

Instance-CL通常对通过数据增强获得的辅助集进行优化。顾名思义,然后采用对比损失将原始数据集中相同实例增强的样本集合在一起,同时将不同实例的样本分开。。

相关工作

自监督学习
短文本聚类

模型理解

论文的目的是充分利用Instance-CL有益属性构建一个联合框架来提升无监督聚类。SCCL框架如下:

模型框架图

如图所示,SCCL主要分为三部分组成。神经网络ψ(·)首先将输入数据映射到表示空间(特征生成器),然后是两个不同的头g(·)f(·),分别应用对比损失和聚类损失。
因为涉及到Instance-CL,论文的数据也包含原始数据和增强数据。具体地说,对于随机采样的minibatch B=\left\{x_i\right\}_{i=1}^M,我们为B中的每个数据实例随机生成一对增强数据,
产生一个大小为2M的增强batchB^a表示为B^a=\left\{x_i\right\}_{i=1}^{{2M}}

part 1: Instance-wise Contrastive Learning

对于每个minibatchB,Instance-CL损失定义在B^a的增广对上。设i^1\in\left\{1,…,2M\right\}表示增强集B^a中任意实例的索引, i^2\in \left\{1,…,2M\right\}B^a中另一个实例的索引,它是从原始集B中的同一个实例增广的对应索引。我们将\tilde{x}_{i^1},\tilde{x}_{i^2}\in B^a作为正例对,而将B^a中的其他2M-2个实例作为关于这对正例对的负实例。
\tilde{z}_{i^1},\tilde{z}_{i^2}是对应g头的输出,如\tilde{z}_j = g(ψ(x_j )), j = i^1,i^2.
然后对于\tilde{x}_{i^1},我们试图通过最小化以下内容来将\tilde{x}_{i^2}B^a中的所有负实例分开:

公式(1)

这就是常用的CL Loss-infoNCE. 其中I_{j\neq i^1}是一个指示函数,τ表示我们设置为0.5的温度参数。sim(·)的选取如下:

sim函数

据实验经验,标准化后的相似性计算对下游任务更加友好。
当前minibatch中的instance-CL损失是B^a中所有实例的平均值

公式(2)

part 2: Clustering

我们同时通过无监督聚类将语义类别结构编码到表示中。与instance-CL不同,聚类集中于高级语义概念,并试图将来自同一语义类别的实例聚集在一起。假设数据由K个语义类别组成,每个类别都是由它在表示空间中的质心为特征的,表示为\mu_k, k\in \left\{1,…,K\right\}。设e_j=ψ(x_j)表示原始集B中实例x_j的表示。并使用如下公式来计算当前样本x_j分配到类簇集合k的概率:

公式(3)

如DEC (2016)中,使用一个线性层,即聚类头f(·),来近似每个类簇的中心,并利用辅助分布对其进行迭代细化。

公式(4)

通过优化集群之间的KL散度,将簇分配概率推向目标分布:

公式(5)

因此整体的聚类损失表示为:

公式(6)
part 3: Overall objective

image.png

η 用于平衡SCCL的 contrastive loss 和 clustering loss.

未完

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 202,723评论 5 476
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,080评论 2 379
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 149,604评论 0 335
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,440评论 1 273
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,431评论 5 364
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,499评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,893评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,541评论 0 256
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,751评论 1 296
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,547评论 2 319
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,619评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,320评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,890评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,896评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,137评论 1 259
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,796评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,335评论 2 342

推荐阅读更多精彩内容