写这篇文章的时候,跳过了两个专题,因为BERT的确太火了,也比较实用吧,就拿最近的阅读理解比赛来说,几乎霸榜了,比如下面这个图: 之所以NLP这么多任务都会被刷新纪录,是因为...
IP属地:吉林
写这篇文章的时候,跳过了两个专题,因为BERT的确太火了,也比较实用吧,就拿最近的阅读理解比赛来说,几乎霸榜了,比如下面这个图: 之所以NLP这么多任务都会被刷新纪录,是因为...
前面两篇分别梳理了下BERT的原理和BERT的训练,接着前面的内容,梳理下BERT是如何在下游任务上运用的。 原理就是上面这个图了。四种任务,实际上从他的训练模型的代码和...
Google开源的BERT的确很良心,代码写得非常好,是一个不错的学习案例,这里我从实战的角度从预训练到下游任务实战做一个全面的梳理。原理部分的讲解请参考我上篇博客。 这里简...
本文关键词:NLP、词向量、word2vec、ELMo、语言模型该系列更新的第二篇已在个人微信公众号「AI极客 」发布:词向量(2)--从ELMo到Bert[https://...