240 发简信
IP属地:江苏
  • Resize,w 360,h 240
    LDA 原理说明

    LDA为latent Dirichlet allocation的简称,是一个生成式模型,是一种主题模型,无监督度学习方法。其基本假设是一篇文档是...

  • Resize,w 360,h 240
    seq2seq和attention原理详解

    1、Seq2seq Seq2seq由两个RNN/LSTM构成,其中encoder RNN产生原始sentence的encoding,decode...

  • Resize,w 360,h 240
    word2vector embeddding原理详解

    1、引入 word2vector的原本意思即为把词向量化,那么为什么要这么做呢?one-hot也可以表示词袋中的词,但是比如motel可以one...

  • 阿里Sequential Deep Matching Model 精读和理解

    本文主要在于精读该论文,提取一些信息,一方面帮助掌握和深入理解模型构建的结构,另一方面大家要结合自己做项目的需求进行总结和拓展,以保模型运用恰当...

  • LSTM简易说明

    有一定神经网络基础的建议直接阅读原文即可,该篇说明主要翻译来自该文章,目的是为LSTM-DSSM模型的理解做简易说明。原文地址:https://...

  • Resize,w 360,h 240
    tensorflow中常见操作总结--tf.feature_column.embedding_column

    本次验证的目的在于:使用tf.feature_column.embedding_column函数进行训练得到的vector,在预测时直接使用tf...

  • 使用tensorflow来做word2vector(2)--实际操作

    上篇文章对word2vector做了简单的描述,本篇主要是进行基础实践, 基本翻译来自:https://adventuresinmach...

  • Resize,w 360,h 240
    使用tensorflow来做word2vector(1)--简易基本知识

    有关word2vector的原理这里不赘述,本篇仅阐述怎么使用tensorflow来做一个实际操作案例。这里的一些说明,均为实际操作总结,或来自...

  • Resize,w 360,h 240
    tensorflow中常见操作总结--读取数据

    关于读取dataframe数据为dataset,并做batch处理。 注意,tf中的dataset api读取数据时,使用了并行(paralle...