240 发简信
IP属地:福建
  • 拉格朗日对偶

    0.简介 在凸优化研究中,数学优化问题遵循以下形式: 是一个称为优化变量的向量 是一个我们想要最小化的凸函数 是一套凸集,描述了一组可行(...

  • Resize,w 360,h 240
    西瓜书扩展_支持向量机_间隔与支持向量

    二分类问题 这里我们考虑的是一个两类的分类问题,数据点用来表示,这是一个维向量,而类别用来表示,可以取或者,分别代表两个不同的类: 划分超平...

  • 西瓜书扩展_拉格朗日对偶

    原始目标函数(有约束条件) 对于任意一个带约束的优化都可以写成这样的形式: 新构造的目标函数(没有约束条件) 因为我们要求解...

  • Resize,w 360,h 240
    西瓜书扩展_学习理论

    概念=未知目标函数 样本集大小 “不可知PLA可学习” 二分类问题,0-1损失函数(0-1 loss function) 泛化误差(genera...

  • Resize,w 360,h 240
    伪逆

    对于的矩阵,定义其伪逆,使得当为阶可逆方阵的时候,有 矩阵的奇异值分解可以理解成从到的线性变换在不同基底下矩阵表示,接下来利用矩阵的奇异值分解来...

  • 奇异值分解的几何意义阐述

    对角矩阵是我们最喜欢的一类矩阵,因为给定一个对角阵立即就可以得到它的特征值,行列式,幂和指数函数等等 而一个阶的方阵相似于对角阵当且仅当它存在着...

  • Resize,w 360,h 240
    深度学习扩展_梯度下降

    :当发生微小变化的时候,的变化有多大。可用式子表示 是梯度,指向最陡上升方向。 是方向导数,并不指向最陡上升方向。 ,沿着方向的微小推动可以被分...

  • 深度学习扩展_最大似然估计

    极大似然估计,通俗理解来说,就是利用已知的样本结果信息,反推最具有可能(最大概率)导致这些样本结果出现的模型参数值! 换句话说,极大似然估计提供...

  • 深度学习扩展_信息论

    首先来看离散型随机变量。考虑随机变量取某一个特定值时包含的信息量的大小。假设随机变量取值为,对应的概率为。直观来看,取这个值的可能性越小,而它又...