240 发简信
IP属地:湖南
  • 120
    2019-02-22 Transformer (GPT、BERT的核心)

    前几天细读GPT的paper,里面使用的基础模型和BERT一样都是Transformer,区别就在于GPT用的是单向Transformer,而BERT使用的是双向Transf...

  • 120
    给女朋友程序媛看的Ubuntu使用说明书

    这是一份写给女朋友新手程序媛看的文章,介绍ubuntu常用的命令行操作命令,里面尽量不涉及原理性的解释(听不懂就生气了),用类比windows的手法简单明了的介绍每个命令的意...

  • 120
    Match-LSTM & BiDAF

    简介 抽取式QA是要在文档中定位问题的答案。模型输入是【Passage,Question】,模型输出是【start_idx,end_idx】∈ [ 0, len(passag...