240 发简信
IP属地:北京
  • 120
    NLP - Transformer模型

    1. 简介 Transformer模型由Google提出,发表在NIPS 2017会议上。是一种完全基于注意力机制的模型,摒弃了RNN和CNN结构。并且很容易并行,训练速度较...

  • 120
    NLP预训练语言模型(三):逐步解析Transformer结构

    Transformer是近两三年非常火的一种适用于NLP领域的一种模型,本质上是Encoder-Decoder结构,所以多应用在机器翻译(输入一个句子输出一个句子)、语音识别...

  • 120
    Transformer在计算机视觉中的应用

    2018年Google AI研究院提出了一种预训练模型BERT,该模型在11项NLP任务中夺得SOTA结果,而BERT取得成功的一个关键因素是Transformer的强大作用...

  • 120
    Transformer模型详细介绍

    简介 Transformer出自于Google于2017年发表的论文《Attention is all you need》[https://arxiv.org/abs/170...