240 发简信
IP属地:台湾
  • Pytorch-使用Bert预训练模型微调中文文本分类

    笔记摘抄[https://www.cnblogs.com/cxq1126/p/13562466.html] 语料链接:https://pan.baidu.com/s/1YxG...

  • 120
    Transformer模型详细介绍

    简介 Transformer出自于Google于2017年发表的论文《Attention is all you need》[https://arxiv.org/abs/170...

  • Glove词向量

    无论是基于神经网络语言模型还是Word2vec的词向量预训练方法,本质上都是利用文本中词与词在局部上下文的共现信息作为自监督学习信号。与这种方法不同的是,另一类用于获得词向量...

  • 什么是预训练模型

    模型预训练:首先,在一个原始任务上预先训练一个初始模型,然后在目标任务上使用该模型,针对目标任务的特性,对该初始模型进行精调,从而达到提高目标任务的目的。在本质上,这是一种迁...

  • 多层感知机(MLP)模型实现

    在pytorch中构建一个自定义神经网络模型步骤:从torch.nn中的Module类派生一个子类,并实现构造函数和forward函数.其中,构造函数定义了模型所需要的成员对...

  • 120
    Super()函数

    1.super()函数就是用来调用父类(超类)的一个方法. 2.super()函数是用来解决多重继承问题的,直接用类名调用父类的方法在使用的时候没有问题,但是如果使用多继承,...

  • 自然语言中的神经网络基础(1)

    本文介绍在自然语言处理中常用的四种神经网络模型,即多层感知机模型、卷积神经网络、循环神经网络和以 Transformer 为代表的自注意力模型。然后,介绍通过优化模型参数训...

  • 跟我一起学PyTorch-03:PyTorch基础知识

    PyTorch的许多函数在使用上和Numpy几乎一样,能够平滑地结合使用,Numpy的绝大多数操作同样可以用在PyTorch中。PyTorch的特色之一是提供构建动态计算图的...

  • 120
    论文阅读:《Wasserstein Distance Guided Representation Learning for Domain Adaptation》

    真真真好久没有更新论文阅读了(论文也在库存状态……)一下子就六月底了 这个月真的好快但希望这个月的努力会有收获!今天的论文阅读是针对域适应的一篇 论文名称:《Wassers...