Embedding 层可以参考word2vec 或 glov 算法原理,利用单层神经网络做词的向量化,一般来说输入为word 在字典中的位置(一般不用one-hot),输出为向量空间上的值。
Embedding的主要作用是将词的向量训练也放入到模型中,形成一个end-to-end结构,而这样 Embedding 层训练出来的向量可以更好的适应相应任务。
它不是作为降维使用,而是作为一种特征表示使用。
作者:山同气
链接:https://www.zhihu.com/question/48688908/answer/151755571
来源:知乎
著作权归作者所有。商业转载请联系作者获得授权,非商业转载请注明出处。
keras Embedding层详解:http://blog.csdn.net/jiangpeng59/article/details/77533309
理解词向量:在Keras模型中使用预训练的词向量 https://github.com/MoyanZitto/keras-cn/blob/master/docs/legacy/blog/word_embedding.md