深度神经网络已经是横行于视觉以及自然语言处理领域,但是为什么在表格数据上却表现平平呢, 这篇论文——啊 摘要的第一个单词就看不懂,Heterogeneous 异质性。说白了...
深度神经网络已经是横行于视觉以及自然语言处理领域,但是为什么在表格数据上却表现平平呢, 这篇论文——啊 摘要的第一个单词就看不懂,Heterogeneous 异质性。说白了...
ViT作为Backbone, 用类似BERT的方式进行自监督预训练,通过随机遮盖大部分patch让encoder更好地“理解”图片。 重点以及和BEIT的区别 其实把BERT...
谷歌呼吸机压力预测比赛[https://www.kaggle.com/c/ventilator-pressure-prediction/overview]参考:数据探索[ht...
Gradient Boosting Decision Trees 是把1999年的 Gradient Boosting Machine[https://statweb.sta...
视频版:https://www.bilibili.com/video/BV15B4y1T7Q7[https://www.bilibili.com/video/BV15B4y1...
视觉任务一直是以CNN为主流,2020年出现了基于NLP领域Transformer的模型Vision Transformer,用自注意力机制来替换CNN,而同一团队今年发表了...
https://arxiv.org/pdf/2101.03697.pdf[https://arxiv.org/pdf/2101.03697.pdf] 今年三月份发布这项工作叫...
ViT AN IMAGE IS WORTH 16X16 WORDS:TRANSFORMERS FOR IMAGE RECOGNITION AT SCALEhttps://ar...
深度神经网络有着强大的表征能力一张输入图片经过层层变换表达为一个特征向量如果是监督学习,特征的预测结果可以和标签比对作为损失函数;那如果是无监督学习,没有label,损失函数...
https://arxiv.org/pdf/2102.06171.pdf[https://arxiv.org/pdf/2102.06171.pdf]NFNet这篇论文的内容很...
这篇论文探索了卷积神经网路模型在三个维度上的缩放对精度的影响,分别是深度(层数),宽度(通道数)以及分辨率(特征图的宽度和高度)。 它的主要贡献就是提出了一种在增加参数量时平...
MLE和MAP,如何从数据样本估计参数? 其实机器学习包括深度学习的模型都是在学习数据的分布。那么如何根据已有数据,估计影响数据的概率分布的参数(比如均匀分布的最大最小值,正...
时间终于来到了2020年!今天来读一读这一篇还蛮有新意的高分辨率神经网络。之前讲过的 AlexNet, VGGNet, GoogleNet, ResNet, 他们都和LeNe...
你好,最近正在赶论文生死关头也没有时间,问问别人看?祝好运!
Inception 系列 2021-03-22对Inception系列的三篇论文,5个模型进行一个浅显的总结对比。来看看系列之首的第一个参考文献——we need to go deeper, 这在这个系列中有两个意思,从...
2018 https://arxiv.org/pdf/1608.06993.pdf[https://arxiv.org/pdf/1608.06993.pdf]参考博客:ht...
对Inception系列的三篇论文,5个模型进行一个浅显的总结对比。来看看系列之首的第一个参考文献——we need to go deeper, 这在这个系列中有两个意思,从...
写一写我理解的模型退化 矩阵退化 首先来回顾一点线性代数中退化矩阵的知识,退化这个概念应该是类似线性代数中的退化矩阵,也叫奇异矩阵,特点是行列式为0,也就是说矩阵内* 存在线...
残差连接是什么 虽然普遍认为神经网络模型越深,拟合能力越好,但是由于梯度消失/爆炸等问题,在深度到达了一定程度后, 模型的表现会不升反降。2015年的ResNet是针对模型退...