240 发简信
IP属地:重庆
  • Resize,w 360,h 240
    特征值分解和奇异值分解

    1.特征值分解 特征值和特征向量的定义如下: 其中A是一个 n×n 的矩阵,x 是一个 n 维向量,则我们说λ是矩阵 A 的一个特征值, 而 x...

  • 梯度下降和牛顿法

    这里主要讨论梯度下降法和牛顿法的原理 1.梯度下降法 形式:,其中为损失函数,为模型参数 下面将推导这一形式的由来. 首先,需要用到多元函数的一...

  • Resize,w 360,h 240
    卷积神经网络的反向传播

    1.DNN的反向传播 首先回顾深度神经网络(DNN)的反向传播 forward: Loss Function: backward: w的梯度: ...

  • Resize,w 360,h 240
    Glove 原理详细解读

    本文主要对《GloVe: Global Vectors for Word Representation》进行解读。 尽管word2vector在...

  • Resize,w 360,h 240
    Word2vec原理详细解读

    0. 预备知识 Softmax函数: 哈夫曼树(Huffman Tree) 1.Skip-gram 从图1可以看出Skip-gram就是用当...

  • Resize,w 360,h 240
    BatchNormalization和LayerNormalization

    神经网络中有各种归一化算法:Batch Normalization (BN)、Layer Normalization (LN)、Instance...

  • Resize,w 360,h 240
    logistic 回归

    基本理论 logistic回归的总体思路:线性回归→(激活函数)→线性分类 激活函数即sigmoid函数,即 logistic回归模型表达式: ...

  • 向量的范数

    向量的范数是一个标量范数为: 特别地: 0范数为向量中非零元素的个数 1范数为向量元素的绝对值相加 2范数为向量元素的平方和再开方,即高中数学中...

  • Resize,w 360,h 240
    矩阵和向量的乘法---点乘、叉乘、内积、外积、数乘、哈达玛积、克罗内克积

    向量的数乘:用一个数乘以向量中的每个元素 向量的内积:等于对应位置相乘再相加,两个向量的内积的结果是变成一个标量(也叫点乘) 向量的外积:叉乘的...