3.8.3 高维上转置 在PyTorch中进行转置不仅限于矩阵。 我们可以通过指定应该发生转置(翻转形状和步幅)的两个维度来转置多维数组: 将其...

3.8.3 高维上转置 在PyTorch中进行转置不仅限于矩阵。 我们可以通过指定应该发生转置(翻转形状和步幅)的两个维度来转置多维数组: 将其...
3.8.2 转置而不复制 让我们现在尝试转置。 让我们看一下点张量,将其在行中具有单个点,在列中具有X和Y坐标,然后将其旋转以使单个点在列中。 ...
3.8.1 其他张量存储的视图 我们可以通过提供相应的索引来获得张量中的第二个点: 结果张量在存储中的偏移量为2(因为我们需要跳过第一个点,该点...
3.8 张量元数据:大小,偏移量和步幅 为了索引存储,张量依赖于几条信息以及它们的存储,明确地定义它们:大小,偏移量和步幅。 这些相互作用的方式...
3.7.2 修改存储的值:就地操作 除了上一节中介绍的对张量的操作以外,仅作为Tensor对象的方法存在的操作数量很少。 可以从名称的尾部下划线...
3.7.1 索引到存储 让我们看看在2D点中实际上如何建立存储索引。 使用.storage属性可以访问给定张量的存储: 即使张量报告自己具有三行...
3.7 张量:存储的风景 现在是时候让我们更仔细地了解引擎盖下的实现了。 张量中的值分配在由torch.Storage实例管理的连续内存中。 存...
3.6 张量API 至此,我们知道了什么是PyTorch张量以及它们是如何在幕后工作的。在总结之前,值得一看的是PyTorch提供的张量操作。 ...
3.5.2 适合各种场合的dtype 正如我们将在以后的章节中看到的那样,神经网络中发生的计算通常以32位浮点精度执行。 更高的精度(例如64位...
3.5.3 管理张量的dtype属性 为了分配正确的数字类型的张量,我们可以指定适当的dtype作为构造函数的参数。 例如: 我们可以通过访问相...
专题公告
Deep-Learning-with-PyTorch中文翻译版,坚持更新。