240 发简信
IP属地:河北
  • 120
    BERT发展史(三)全方位多角度理解Word2Vec

    BERT发展史(三)全方位多角度理解Word2Vec 建议先阅读之前两篇文章: BERT发展史(一)从词嵌入讲起 BERT发展史(二)语言模型 0. 写在前面 在上一篇介绍的...

  • 120
    BERT发展史(二)语言模型

    0. 写在前面 上一篇文章中主要介绍了基于统计方法的词嵌入,这些方法都是使用很长的向量来表示一个词语,且词语的“含义”分布在高维度向量的一个或少数几个分量上(稀疏)。这些方法...

  • 120
    Bert学习

    深度学习在NLP领域的发展 一、词向量历史 1.1 第一阶段: Word embeddignd Word 2Vec Glove 通过无监督的语料,来学习到比较好的词向量,基于...

  • 120
    Wide & Deep Learning for Recommender Systems / 中译文

    原文:arxiv 摘要 在输入数据具有稀疏性的大规模回归和分类问题中,广泛使用了带有非线性特征变换的广义线性模型进行求解。通过一组宽泛(a wide set)的外积特征转换(...

  • 120
    Tensorflow——tensorflow的激活函数

    目录 sigmoid 函数 tanh函数 relu 函数 softplus 函数 leakrelu 函数 ELU 函数 SELU函数 1.sigmoid 函数 这是传统的神经...

  • 120
    NLP笔记——词向量Why and How

    从今天起,我们一起来学习词向量word2vector(简称w2v)相关的知识。虽然,对于NLP来说,w2v技术和操作已经烂大街了,随便一个NLP任务,底层基本都要搞一个w2v...