240 发简信
IP属地:贵州
  • Batch normalization

    http://blog.csdn.net/hjimce/article/details/50866313这篇文章不错

  • 正则化方法

    正则化的作用 正则化是为了防止过拟合采取的策略,主要的正则化方法有L1、L2、dropout、dropconnect L2正则化 具体的公式如下...

  • Resize,w 360,h 240
    神经网络的参数更新

    这个需要翻墙的外国网站写的很好:http://ruder.io/optimizing-gradient-descent/index.html#m...

  • 神经网络的初始化参数方法

    神经网络的参数也就是权重W很多,通过BP反向传播可以逐渐得到使Cost Function最小的参数,但是这些参数的初始值对于收敛的速度,最后的准...

  • 常用的激活函数

    激活函数的作用 激活函数的作用是能够给神经网络加入一些非线性因素,使得神经网络可以更好地解决较为复杂的问题。我们知道神经网络的神经元输入的是x的...

  • Resize,w 360,h 240
    卷积神经网络(CNN)基础

    前言 在七月初七情人节,牛郎织女相见的一天,我终于学习了CNN(来自CS231n),感觉感触良多,所以赶快记下来,别忘了,最后祝大家情人节快乐5...

  • Resize,w 360,h 240
    QEM网格简化

    说明 QEM网格简化可以有效的减少复杂网格的顶点数同时保留原网格的拓扑特征,可以自定义减少后的顶点数,是十分重要的算法,在计算几何领域,它实现的...

    0.1 9209 4 3 1
  • RVD(Restricted Voronoi Diagram)的并行算法

    前言 小学期的项目,做之前不和我们说是工业级的保密算法,做之后,只有一篇论文,还是纸质版,没有电子版,一个月的时间还有许多bug,但是尽力了。使...

  • Resize,w 360,h 240
    随机梯度下降(SGD)和批量梯度下降以及拟牛顿法

    批量梯度下降和随机梯度下降是机器学习中很常用的学习方法,批量梯度下降更为准确,但是每一轮训练都要遍历全部的样本而随机梯度下降则没有这一问题,但是...