240 发简信
IP属地:甘肃
  • @liyonghong 谢谢您!还想问一下实际使用CBAM后效果有提升吗?是不是直接把CBAM插在网络模型的卷积层的后面就可以,不用作其他修改?

    【论文解读】用于卷积神经网络的注意力机制(Attention)----CBAM: Convolutional Block Attention Module

    论文:CBAM: Convolutional Block Attention Module收录于:ECCV 2018 摘要 论文提出了Convolutional Block ...

  • 你好,谢谢你的博客!我注意到博主的代码实现中有很多部分与论文阐述有些不同。比如1.MLP中第2层的激活函数使用sigmoid,而不是relu;2.得到注意力模块前的sigmoid激活函数没有实现;3.空间注意力模块中使用了3×3的卷积核而不是7×7的。请问博主这是因为这样做效果更好吗?

    【论文解读】用于卷积神经网络的注意力机制(Attention)----CBAM: Convolutional Block Attention Module

    论文:CBAM: Convolutional Block Attention Module收录于:ECCV 2018 摘要 论文提出了Convolutional Block ...