240 发简信
IP属地:山东
  • Resize,w 360,h 240
    16Seq2Seq实战语言翻译-attention(3)

    数据预处理部分和上一篇一样,就不啰嗦了。重点看一下模型构造:1. Attention层:核心在于对encoder端隐层权重进行计算 比如我们准备...

  • 15Seq2Seq实战语言翻译(2)

    1.加载数据 2.查看数据 3.数据预处理 3.1 构造字典 3.2 增加特殊字符 3.3 word和id之间的映射表 3.4 text 转换成...

  • Resize,w 360,h 240
    2机器学习(下)

    决策树 纯度和信息熵:决策树构造的过程就是为寻找纯净划分的过程,数学上的解释,就是让目标变量分歧最小。比如有3个集合:集合1有6次去打球;集合2...

  • Resize,w 360,h 240
    8NER实战-(3)BiLSTM+CRF

    tf.nn.embedding_lookup的作用就是找到要寻找的embedding data中的对应的行下的vector。 +CRF 用F1值...

  • 9NER实战-(4)IDCNN+CRF

    对于序列标注来讲,普通CNN有一个劣势,就是卷积之后,末层神经元可能只是得到了原始输入数据中一小块的信息。而对NER来讲,整个句子的每个字都有可...

  • Resize,w 360,h 240
    11句对匹配实战-(1)Siamese

    用的是kaggle上的比赛“Quora Question Paris: Can you identify question pairs that...

  • Resize,w 360,h 240
    12句对匹配实战-(2)Match_pyramid

    两个句子从一开始就交互,这样就会获得更准确的关系。图中可以将单词与单词之间的相似度看成是像素,那么对于两个单词数为M,N的句子,其相似度矩阵就是...

  • 14Seq2Seq原理(1)

    先看看seq2seq原理: encoder通过学习将输入embedding后传入rnn网络形成一个固定大小的状态向量S,并将S传给Decoder...

  • Resize,w 360,h 240
    13句对匹配实战-(3)Decomposable

    比较:其 [a¯i,βi][a¯i,βi] 就是把两部分concat起来(句子中第 i 个词, 和另一个句子里所有词与它比较的加权词向量) im...