论文地址:https://papers.nips.cc/paper/6907-lightgbm-a-highly-efficient-gradient-boosting-de...
论文地址:https://papers.nips.cc/paper/6907-lightgbm-a-highly-efficient-gradient-boosting-de...
论文地址:https://arxiv.org/abs/1603.02754 官方代码:https://github.com/dmlc/xgboost 一 为什么读这篇 虽然几...
论文地址:https://quinonero.net/Publications/predicting-clicks-facebook.pdf 一 为什么读这篇 本文属于深度学...
论文地址:https://papers.nips.cc/paper/7081-dropoutnet-addressing-cold-start-in-recommender-...
论文地址:https://dl.acm.org/doi/abs/10.1145/3298689.3346996 一 为什么读这篇 很早之前就收藏的,除了16年那篇YouTub...
论文地址:https://dl.acm.org/doi/10.1145/3298689.3346997 一 为什么读这篇 看完MMoE后接着看这一篇,进一步加深对MMoE的理...
论文地址:https://www.kdd.org/kdd2018/accepted-papers/view/modeling-task-relationships-in-mu...
论文地址:https://arxiv.org/abs/1904.11547 官方代码:https://github.com/Feiyang/MetaEmbedding 一 为...
论文地址:https://arxiv.org/abs/1706.06978 官方代码:https://github.com/zhougr1993/DeepInterestNe...
论文地址:https://arxiv.org/abs/1905.01997 一 为什么读这篇 已经看了几篇用Attention做序列推荐的具体方法,正好在这个过程中找到了这篇...
论文地址:https://arxiv.org/abs/1808.06414 官方代码:https://github.com/cheungdaven/DeepRec 一 为什么...
论文地址:https://arxiv.org/abs/1808.09781 官方代码:https://github.com/kang205/SASRec 一 为什么读这篇 搜...
论文地址:https://arxiv.org/abs/1706.03762 官方代码:https://github.com/tensorflow/tensor2tensor ...
本文将通过细节剖析以及代码相结合的方式,来一步步解析Attention is all you need这篇文章。 这篇文章的下载地址为:https://arxiv.org/a...
官方代码:https://github.com/familyld/DeepCF 一 为什么读这篇 来新东家这边做推荐召回层的相关工作,刘总提的召回层的粗排也希望能用模型的方式...
论文地址:https://research.google.com/pubs/archive/45530.pdf 一 为什么读这篇 其实当年在微博做视频推荐时就这篇刚出来时就看...
论文地址:https://arxiv.org/abs/1606.07792 一 为什么读这篇 自从打算重新搞推荐以来,看了各种各样的资料,收集了一堆TODO论文,发现这篇出现...
论文地址:https://arxiv.org/abs/1512.02325 代码地址:https://github.com/weiliu89/caffe/tree/ssd 一...