240 发简信
IP属地:山东
  • Resize,w 360,h 240
    ReLU激活函数进阶:自适应参数化ReLU

    本文在综述传统激活函数和注意力机制的基础上,解读了一种注意力机制下的激活函数,即自适应参数化修正线性单元(Adaptively Parametr...

  • Resize,w 360,h 240
    注意力机制与残差网络:深度残差收缩网络

    深度残差网络ResNet获得了2016年IEEE Conference on Computer Vision and Pattern Recog...

  • Resize,w 360,h 240
    深度残差收缩网络(附TFLearn代码)

    深度残差收缩网络是一种特征学习方法,是深度残差网络(deep residual network,ResNet)的一种变体。本文进行简短的介绍。 ...