240 发简信
IP属地:北京
  • Batch normalization

    http://blog.csdn.net/hjimce/article/details/50866313这篇文章不错

  • 正则化方法

    正则化的作用 正则化是为了防止过拟合采取的策略,主要的正则化方法有L1、L2、dropout、dropconnect L2正则化 具体的公式如下: 也就是在原来的代价函数上加...

  • 120
    神经网络的参数更新

    这个需要翻墙的外国网站写的很好:http://ruder.io/optimizing-gradient-descent/index.html#momentum SGD遇到的问...

  • 神经网络的初始化参数方法

    神经网络的参数也就是权重W很多,通过BP反向传播可以逐渐得到使Cost Function最小的参数,但是这些参数的初始值对于收敛的速度,最后的准确率有很大的影响,那么我们应该...

  • 常用的激活函数

    激活函数的作用 激活函数的作用是能够给神经网络加入一些非线性因素,使得神经网络可以更好地解决较为复杂的问题。我们知道神经网络的神经元输入的是x的线性组合wx+b,是线性的,当...

  • 120
    卷积神经网络(CNN)基础

    前言 在七月初七情人节,牛郎织女相见的一天,我终于学习了CNN(来自CS231n),感觉感触良多,所以赶快记下来,别忘了,最后祝大家情人节快乐5555555.正题开始! CN...

  • 120
    QEM网格简化

    说明 QEM网格简化可以有效的减少复杂网格的顶点数同时保留原网格的拓扑特征,可以自定义减少后的顶点数,是十分重要的算法,在计算几何领域,它实现的效果是这个样子的: 优点 1....

  • RVD(Restricted Voronoi Diagram)的并行算法

    前言 小学期的项目,做之前不和我们说是工业级的保密算法,做之后,只有一篇论文,还是纸质版,没有电子版,一个月的时间还有许多bug,但是尽力了。使用了Eigen3.0.0和fr...

  • 120
    随机梯度下降(SGD)和批量梯度下降以及拟牛顿法

    批量梯度下降和随机梯度下降是机器学习中很常用的学习方法,批量梯度下降更为准确,但是每一轮训练都要遍历全部的样本而随机梯度下降则没有这一问题,但是他最后的结果会在局部最优解附近...

  • 120
    牛顿下降法和梯度下降法基础

    前言 学习机器学习一直是用梯度下降法的,对于牛顿下降法并没有什么了解,但是小学期同学的一个项目用到了牛顿下降法,同时好多大神同学的夏令营之旅问到了牛顿下降法(我等弱鸡疯狂被刷...

  • K-means均值聚类

    算法步骤 算法很简单一共4步: 1)随机在图中取K个种子点。2)然后对图中的所有点求到这K个种子点的距离,假如点Pi离种子点Si最近,那么Pi属于Si点群。(上图中,我们可以...

  • 120
    主成分分析(PCA)的推导与解释

    前言 PCA是一种无参数的数据降维方法,在机器学习中很常用,这篇文章主要从三个角度来说明PCA是怎么降维的分别是方差角度,特征值和特征向量以及SVD奇异值分解。 PCA的推导...

  • 奇异值分解(SVD)

    一些基础 关于正交矩阵 正交矩阵是指各行所形成的多个向量间任意拿出两个,都能正交关系式,正交矩阵的重要性质是AT=A-1,向量正交是指两个向量的内积为0,也就是三维空间上两个...

  • 特征值和特征向量

    前言 大二学了线代,讲了特征值和特征向量,但是老师的暴力朗读ppt真是让我觉得够了,还有关于特征值和特征向量就是单纯的公式求解,为什么是这样的一概不讲,有什么用,有什么意义一...

  • 矩阵的LU分解

    前言 看了麻省理工的线性代数的一部分课程,主要是补补课,大二线代忘得差不多,主要目的是学习SVD,学习SVD之前补补前面的课,第一课就是LU分解了。 什么是LU分解 L是指下...