Avatar notebook default
24篇文章 · 5671字 · 1人关注
  • Resize,w 360,h 240
    深度学习:权重衰减weight decay

    权重衰减weight decay是应对过拟合问题的常用方法. 什么是权重衰减? 权重衰减等价于L2范数正则化(regularization).正...

  • Resize,w 360,h 240
    mxnet:自动求梯度

    mxnet求梯度方法 step1.先调用attach_grad函数来申请存储梯度所需要的内存.x.attach_grad() step2.定义x...

  • Resize,w 360,h 240
    深度学习:什么是张量?

    张量,又叫tensor.实际上就是一个多维数组(multidimensional array).张量的目的是能够创造更高维度的矩阵、向量。 1....

  • Resize,w 360,h 240
    MXNet深度学习库

    1.MXNet是什么? “MXNet是灵活且高效的深度学习库”。 官网: http://mxnet.incubator.apache.org/ ...

  • Resize,w 360,h 240
    mxnet:深度卷积神经网络AlexNet

    在LeNet提出的将近20年里,神经网络一度被其他机器学习方法超越,如支持向量机. 1.AlexNet是什么 AlexNet是一个模型网络,这个...

  • mxnet:为什么1×1卷积层可以代替全连接层

    全连接层的作用是,可以将卷积得到的局部特征连接起来,综合考虑整个图像。当1*1卷积层的channel个数等于全连接层的节点个数时,可以看成全连接...

  • Resize,w 360,h 240
    mxnet:1×1卷积层

    1.定义 1×1卷积层就是卷积窗口形状为1×1(kh=kw=1)的多通道卷积层. 由于使用了最小窗口,1×1卷积层失去了卷积层可以识别高和宽维度...

  • Resize,w 360,h 240
    mxnet:卷积层的多输入通道和多输出通道

    1.卷积层的多输入通道 当输入数据含有多个通道时,我们要构造一个与输入数据的通道数相等的卷积核,从而能够与含多通道的输入数据做互相关运算.假设输...

  • mxnet:神经网络的激活函数

    1.为什么激活函数必须为非线性? 为保证非线性,激活函数必须为非线性函数.要让你的神经网络能够计算出有趣的函数,你必须使用非线性激活函数.线性函...

文集作者