AttentionCellWrapper的疑问 关注Attention机制的同学们都知道,Attention最初是在Encoder-Decoder结构中由Bahdanau提出...
前面两篇分别梳理了下BERT的原理和BERT的训练,接着前面的内容,梳理下BERT是如何在下游任务上运用的。 原理就是上面这个图了。四种任务,实际上从他的训练模型的代码和...
写这篇文章的时候,跳过了两个专题,因为BERT的确太火了,也比较实用吧,就拿最近的阅读理解比赛来说,几乎霸榜了,比如下面这个图: 之所以NLP这么多任务都会被刷新纪录,是因为...
0点52分,唉睡不着。 刚读完第二遍《黄金时代》。相比上一次的一脸懵逼,这次像是摸到了一点头绪。 以前读钱钟书,心是暖的;读春上,心是软的;这次读王小波,心是凉的。黄金的时代...