1. 为了确定文件的字符编码,我们使用一个名为 “file” 的命令行工具。因为 file 命令是一个标准的 UNIX 程序,所以我们可以在所有...
在Python操作的时候,没有输入Python命令进入到Python命令操作界面 而是直接在Terminal下面直接输入import导致鼠标被锁...
2022-03-08 女生节,下午放半天假,我开完会后,大概3点半左右 出去溜达。感受最深刻的就是 自由职业真好,工作日不上班真好,一个人放空真...
make plan and execute the plan! 2021年 my plan 早起 6点起床-8点读书完毕(1. 听英语,讲英语,...
一. Transformer 模型火爆原因: 1. 模型简单易懂. encoder 和decoder 模块高度相似且相通. 2. encoder...
本文参考pytorch官方文档https://pytorch-cn.readthedocs.io/zh/latest/notes/extendi...
Attention: 把注意力集中放在重要的点上, 而忽略不重要的因素. 其中重要成都取决于应用场景. 1. 为什么要用Attention机制?...
一 前言 从现在的大趋势来看,使用某种模型预训练一个语言模型看起来是一种比较靠谱的方法。从之前AI2的 ELMo,到 OpenAI的fine-t...
hidden_init hidden_repackaged(detach) model loss_fn(output,target) loss....