Zeng Q, Chen W S, Pan B. BP Neural Network-Based Deep Non-negative Matrix Factorization for Image Clustering[C]//International Conference on Intelligent Computing. Springer, Cham, 2020: 378-387.
摘要翻译:
深度非负矩阵分解(DNMF)是一种很有发展的非负性多层特征提取方法。大多数DNMF算法都是重复运行单层NMF来构建层次结构。他们必须通过微调策略来消除累积的错误,但这比较耗时。为了解决现有DNMF算法的缺点,本文提出了一种新的利用反向传播神经网络(BPNN)的深度自动编码器。它可以自动生成一个深度非负矩阵分解,称为基于BPNN的DNMF(BP-DNMF)。实验结果表明,所提出的BP-DNMF算法具有收敛性。与一些最先进的DNMF算法相比,实验结果表明,该方法具有优越的聚类性能和较高的计算效率。
Intro:
非负矩阵分解(NMF)的目的是找到两个因子和,使,其中是一个样本的数据矩阵,和是非负的,分别称为基样本矩阵和特征矩阵。NMF可以学习基于部分的样本数据表示,并表现出其处理分类和聚类任务的能力。然而,NMF及其变体仅仅是单层分解方法,因此不能揭示数据的底层层次特征结构。而深度学习的实证结果表明,基于多层特征的方法优于基于浅层学习的方法。因此,一些研究者提出了基于单层NMF算法的深度NMF模型。有学者采用单层稀疏NMF生成迭代规则,其中。最终的分解结果为。但该DNMF算法在重建上有一个很大的误差其性能会受到负面影响。【A deep orthogonal non-negative matrix factorization method for learning attribute representations(2017)】 将一个单层正交的NMF扩展到一个深度体系结构。他们的更新规则是;其中。最终的深度分解是。该正交DNMF采用了一个微调步骤来减少因子分解的总误差,并显示了其在人脸图像聚类中的有效性。为增加DNMF的扩展性,【A deep matrix factorization method for learning attribute representations(2017)】提出了一种具有深度分解形式的半DNMF模型,对于这样的模型是没有限制矩阵的符号的。半DNMF模型还通过预训练和微调两个阶段进行了求解,并可以学习对面部图像进行聚类和分类的隐藏表示。可以看出,大多数DNMF方法都需要使用微调策略来减少模型的整个重构误差。然而,这导致了很高的计算复杂度。此外,现有的DNMF算法都没有使用深度神经网络(DNN)获得层次特征结构,也无法利用DNN的优势进行聚类。
为了解决基于单层NMF的DNMF方法的问题,本文提出了一种新的基于BPNN的DNMF(BP-DNMF)方法。利用标记原始样本数据的RBF,得到作为BPNN输入的块对角相似矩阵。同时,将原始数据设置为网络的真实目标。该模型可以看作是一个深度自动编码器。特别是,自动编码器会自动生成一个具有深度层次结构的图像数据表示。所提出的BP-DNMF方法具有较高的计算效率,因为它直接避免了微调步骤。
DNMF
大多数DNMF算法通过递归地利用某些单层NMF生成层次特征结构,并得到以下深度分解:BP-DNMF浅析
该部分介绍一种基于BP神经网络的自动编码器。该自动编码器能够在图像数据上自动创建深度非负矩阵分解,从而避免了微调阶段的高计算复杂度。最后将所提出的BP-DNMF应用于层次特征提取和图像聚类。
Auto-encoder
这里作者给出了一种新的数据定义的方式,整体的训练数据可以表示为:
作者提出的auto-encoder包含:数据到相似矩阵以及相似矩阵到数据两个部分。
- Data to Similarity Matrix :
利用训练数据的径向基函数(RBF),根据两个数据属于同一类,相似性较高,否则相似性较低,生成块对角相似性矩阵。(关于这一部分的构造可以后续进行思考,脱离对数据标签的依赖--如:编码+一致)详细的说,相似矩阵 - Similarity Matrix to data
作者利用输入和目标建立和优化多层BP神经网络的结构。首先通过设置层数和每一层神经元数等来确定BPNN的结构。各权重矩阵由标准正太分布进行初始化,激活函数和偏置分别设置为和。(注:一般情况下,为了更好的学习表示,偏置项不为,但是在矩阵分解中,都要表示为矩阵连乘的方式,因此要将该偏置项设置为)
网络的损失函数可以表示为:
在该网络中采用梯度下降法更新权重矩阵。优化过程如下: - 前向
- 构建深度神经网络的结构,包括指定层和每层神经元数量;
- 分别设置网络的输入和输出目标 和 ,其中和分别是矩阵和中的第列。(注:对于这两个矩阵而言,列向量对应的是数据集中第条样本表示)
- 以标准正太分布初始化个层的权重矩阵,,并将偏置项设置为。
- 对于第层,计算其输入,输出为
- 后向
对于每个样本构造一个输入输出的对应loss
在网络训练之后,可以得到第个样本的表示, 其中为:
由此,BP-DNMF可以被表示为:
Hierarchical Feature Extraction
假设是一个待查询示例样本,是它在第层上的潜在特征,然后可以通过以下公式来计算出特征:
Application to Image Clustering
作者在实验部分的交代有点仓促,在设置的情况下,只对于的输出进行了聚类结果的展示,而对层次结构的探索似乎也没有进行。按理说,至少应该对每一层特征的表示进行可视化或者聚类结果的展示,但并没有。可能是因为该论文为short paper。