1.特征值分解 特征值和特征向量的定义如下: 其中A是一个 n×n 的矩阵,x 是一个 n 维向量,则我们说λ是矩阵 A 的一个特征值, 而 x...
这里主要讨论梯度下降法和牛顿法的原理 1.梯度下降法 形式:,其中为损失函数,为模型参数 下面将推导这一形式的由来. 首先,需要用到多元函数的一...
1.DNN的反向传播 首先回顾深度神经网络(DNN)的反向传播 forward: Loss Function: backward: w的梯度: ...
本文主要对《GloVe: Global Vectors for Word Representation》进行解读。 尽管word2vector在...
0. 预备知识 Softmax函数: 哈夫曼树(Huffman Tree) 1.Skip-gram 从图1可以看出Skip-gram就是用当...
神经网络中有各种归一化算法:Batch Normalization (BN)、Layer Normalization (LN)、Instance...
基本理论 logistic回归的总体思路:线性回归→(激活函数)→线性分类 激活函数即sigmoid函数,即 logistic回归模型表达式: ...
向量的范数是一个标量范数为: 特别地: 0范数为向量中非零元素的个数 1范数为向量元素的绝对值相加 2范数为向量元素的平方和再开方,即高中数学中...
向量的数乘:用一个数乘以向量中的每个元素 向量的内积:等于对应位置相乘再相加,两个向量的内积的结果是变成一个标量(也叫点乘) 向量的外积:叉乘的...