240 发简信
IP属地:天津
  • Resize,w 360,h 240
    Git远程仓库

    1.配置公钥 删除原来的公钥进入.ssh文件夹,将文件夹中的所有内容都删除 git输入你的用户名和邮箱,配置相关信息 打开终端 输入 输入下面代...

  • Python读取txt文件和写txt文件

    今天我再跑一个开源的项目,人家给我了一个环境列表,长下面这个样子: 我想要把他变成下面这个样子,然后放到虚拟机中去批量下载这些包: 详情见代码

  • Resize,w 360,h 240
    通过F12抓取X-Access-Token

    按F12,然后点击network,退出原来的账户,点击登入,按照如图所示的操作就可以抓取X-Access-Token

  • Python魔术方法

    一、常用魔术方法 特点:不需要人工调用,在特定的时刻自动执行. 1.__ init __ :初始化魔术方法(最重要) 触发时机:实例化对象之后触...

  • Resize,w 360,h 240
    matplotlib数据可视化

    导入绘图库 读取数据(数据来源是一个EXCLE表格,这里演示的是如何将数据可视化出来) 1.折线图 plt.plot(x,y,ls=,lw=,c...

  • NLP中基于Bert的数据预处理

    1.中文命名实体识别 1.原始数据格式 2.读取数据 将数据中的文本和对应的标签,读取成下面的one-hot格式 3.处理数据成为Bert的输入...

  • Resize,w 360,h 240
    transformer的理解

    1.二头注意机制 引入二头这里二头注意力机制,其实就是将前面的q,k,v进行细分,分成两个,这样关注的信息就被细化了.image.png将权重w...

  • Resize,w 360,h 240
    self-attention学习笔记

    1.引入Slef-Attention的原因 在自然语言处理中,使用RNN(这里指的的是LSTM)处理输入输出数据的时候,LSTM可以解决长文本依...

  • Bert的使用方法

    1.导入Bert库 我在写代码的时候看到很多代码有的使用以下这种方式导入 有的使用transformer的方式导入的,所有我就有的时候有点郁闷究...

个人介绍
研究生,好好学习天天向上