0 导言 attention机制是模仿人类注意力而提出的一种解决问题的办法,简单地说就是从大量信息中快速筛选出高价值信息。主要用于解决LSTM/RNN模型输入序列较长的时候很...

IP属地:浙江
0 导言 attention机制是模仿人类注意力而提出的一种解决问题的办法,简单地说就是从大量信息中快速筛选出高价值信息。主要用于解决LSTM/RNN模型输入序列较长的时候很...
1 关于Focal Loss Focal Loss 是一个在交叉熵(CE)基础上改进的损失函数,来自ICCV2017的Best student paper——Focal Lo...
1、安装MobaXterm,可下载链接: https://pan.baidu.com/s/1TW_z8jTCAORIhPEF09K9BA 密码: zc5b2、下载安装好之后,...
文章是去年的,但是感觉思路很清晰,被说服了,觉得超牛逼。之前没有好好看,真的是打脸max。还是要好好看论文啊,不要就听名字。 这篇文章主要是对v1的改进。 思考向,flops...
在win10上配置成功KittiSeg后,随便从网上download了一张图片测试一下效果,结果发现不work随意数据上的结果: kitti数据上的结果: 打算自己训练一个m...