240 发简信
IP属地:广西
  • attention的数学解释

    Jason Brownlee博士的系列博客真的很受用哦。原文链接见:Attention in Long Short-Term Memory Re...

  • Resize,w 360,h 240
    基于keras实现word2vec

    译:https://adventuresinmachinelearning.com/word2vec-keras-tutorial/ 很多博客都...

  • Resize,w 360,h 240
    52ML系列(3)--Xgboost详解

    本来觉得xgboost已经弄懂了,但听了AI Lab陈博士的讲座之后,又有了更深入的认知,本文将详细解释一些细节,帮助大家理解。顺便表示对陈博的...

  • Resize,w 360,h 240
    52ML系列(2)--SVM支持向量机

    support vector machine是一个适用于中小型数据集的强大算法,可惜深度学习崛起后淡去了昔日的光辉。。。但是SVM依旧是一个不可...

  • Resize,w 360,h 240
    52ML系列(1)--Logistic Regression逻辑回归

    现在前面 希望对这段时间的机器学习做一个温故与总结,于是有了写52ML系列博客的想法 逻辑回归解决什么问题 逻辑回归是一个分类模型,输出样本属于...

  • Python 弱引用 学习

    转:python 初步认识弱引用 & 垃圾回收 - 要不,单步调试走起? - CSDN博客