240 发简信
IP属地:台湾
  • RNN->attention->transformer

    https://blog.csdn.net/qq_39422642/article/details/78676567 通俗易懂的理解attent...

  • 协同过滤算法

    https://blog.csdn.net/yimingsilence/article/details/54934302

  • Resize,w 360,h 240
    DCN模型

    https://zhuanlan.zhihu.com/p/55234968 与CIN,FM的共同目标都是,设计交叉特征的提取。本质区别在于,提取...

  • Resize,w 360,h 240
    xDeepFM模型

    参考文献 https://zhuanlan.zhihu.com/p/57162373 源码解读 https://github.com/shenw...

  • Wide&Deep模型

    文章提出了一种想法,将具有memorization(记忆)能力的Wide模型与具有generalization(泛化)能力的Deep模型进行组合...

  • Resize,w 360,h 240
    [FM]从线性回归到FM模型

    一.线性回归 线性回归是万物之源,其基本思想贯穿了很多算法的推导中。 线性回归的模型是: (1) 其中,表...

  • Resize,w 360,h 240
    建模步骤

    https://www.kaggle.com/sbongo/for-beginners-tackling-toxic-using-keras

  • Resize,w 360,h 240
  • 【ctr】ctr预估中用到的深度模型

    https://blog.csdn.net/LegenDavid/article/details/79086946 git上资料 传说中的郭大大...

个人介绍
欢迎交流,共同进步。