240 发简信
IP属地:西藏
  • Resize,w 360,h 240
    DistillBERT

    论文标题:DistilBERT, a distilled version of BERT: smaller, faster, cheaper a...

  • Resize,w 360,h 240
    TinyBERT

    部分内容转载自机器之心 TinyBERT的创新点主要在: 新型蒸馏方式 不同于普通的知识蒸馏(knowledge distillation,KD...

  • Resize,w 360,h 240
    StructBERT调研

    提出机构:阿里巴巴达摩院 论文链接:https://arxiv.org/pdf/1908.04577.pdf 作者认为Bert的预训练任务忽略了...

  • Resize,w 360,h 240
    Reformer

    论文标题:REFORMER: THE EFFICIENT TRANSFORMER 论文链接:https://arxiv.org/abs/2001...

  • Resize,w 360,h 240
    Facebook XLM 跨语言预训练

    <Paper Reading Series> 本文基于Facebook 2019的文章:Cross-lingual Language Model...

  • Resize,w 360,h 240
    基于词典信息增强的中文医疗领域NER

    <Paper Reading Series> 本文基于文章:Neural Chinese Medical Named Entity Recogn...

  • Resize,w 360,h 240
    Facebook MUSE 无监督跨语言迁移学习任务

    <Paper Reading Series> 本文基于Facebook 2018-ICLR的文章:WORD TRANSLATION WITHOU...

  • Resize,w 360,h 240
    LASER:基于zero-shot的大规模多语言预训练方法

    <Paper Reading Series> 本文基于2018 Facebook AI Research的文章:Massively Multil...

  • 弱监督跨语言命名实体识别

    <Paper Reading Series> 本文基于2017-ACL的文章:Weakly Supervised Cross-Lingual N...