Numpy库、pytorch库和tensorflow库中,存在一个非常通用但鲜为人知的函数,称为einsum(),它根据爱因斯坦的求和约定执行求...
Numpy库、pytorch库和tensorflow库中,存在一个非常通用但鲜为人知的函数,称为einsum(),它根据爱因斯坦的求和约定执行求...
上接第三章神经网络基础 6.3.2 向量化 从文本数据集到向量化小批量的第二个阶段是迭代输入数据点的标记并将每个标记转换为整数形式。此迭代的结果...
本章通过介绍构建神经网络所涉及的基本思想,如激活函数,损失函数,优化器和监督训练设置,为后面的章节打基础。我们从一个简单的神经网络Percept...
自然语言处理(NLP)(*Natural language processing)也称自然语音理解(natural language under...
在第3章中,我们通过查看Perceptron(最简单的神经网络)来介绍神经网络的基础。感知器的最大的问题是它无法学习数据中存在的适度非线性模式。...
从今天开始翻译<Natural Language Processing with PyTorch> by Goku Mohandas, Bria...
自然语言作为人类思想感情最基本、最直接、最方便的表达工具,无时无刻不在充斥在人类社会的各个角落。随着信息时代的到来,人们使用自然语言进行通信和交...
Tensor是深度学习的基本类型,我们常用的说法有,标量、向量、矩阵如下: 标量(Scalar)是只有大小,没有方向的量,如1,2,3等向量(V...
基类定义 pytorch损失类也是模块的派生,损失类的基类是_Loss,定义如下 看这个类,有两点我们知道: 损失类是模块 不改变forward...
优化器是机器学习的很重要部分,但是在很多机器学习和深度学习的应用中,我们发现用的最多的优化器是 Adam,为什么呢?pytorch有多少优化器,...
专题公告
非常好用深度学习框架,用了你会爱不释手,使用动态图,方便调试和看源码