TensorFlow核心概念之Tensor(3):变换拆合

  Tensor Flow也提供了许多用于多张量的形状进行变换拆合的方法,主要分为维度变换拆分合并两个方面,其中维度变换主要是对一个张量的形状进行改变,而拆分合并主要用于将一个张量按要求拆分成多个张量,或者将多个张量按某种方式合并成一个张量。下面分别从维度变换和拆分合并两个方面简单介绍一下张量在形状上的变换操作。

一、维度变换

  维度变换主要包括:形状改变、维度扩张、维度缩减以及维度交换,TensorFlow中提供的维度变换相关函数主要有: tf.reshapetf.expand_dimstf.squeeze以及tf.transpose。其中:

  • tf.reshape用来对张量的进行形状改变。
  • tf.expand_dims用于对张量进行维度扩张。
  • tf.squeeze用于对张量进行维度缩减。
  • tf.transpose用于张量内部维度间的维度交换。
    下面我们用代码实例的方式,演示集中方法的具体作用,在上述功能之前,我们需要先引入Numpy和TensorFlow的包,代码如下:
import numpy as np
import tensorflow as tf

print(np.__version__)
print(tf.__version__)

结果如下:

1.23.5
2.11.0
tf.reshape

  tf.reshape可以改变张量的形状,但是其本质上不会改变底层张量元素的存储顺序和结构,所以该操作性能较高。代码如下:

#创建一个三维的形状为[3,3,3]的张量
a = tf.random.uniform(shape=[3, 3, 3], minval=0, maxval=10, dtype=tf.int32)
tf.print("a.shape:", a.shape)
print("a:")
tf.print(a)
print("----------------------------------")

#利用reshape生成一个[3,9]的二维张量
b = tf.reshape(a, [3, 9])
print("resize之后的b:")
tf.print(b)
print("----------------------------------")

#利用reshape生成一个[9,3]的二维张量
c = tf.reshape(b, [9, 3])
print("resize之后的c:")
tf.print(c)
print("----------------------------------")

#利用reshape生成一个[9,3,1]的三维张量
d = tf.reshape(c, [9, 3, 1])
print("resize之后的d:")
tf.print(d)
print("----------------------------------")
#原始张量不变
print("resize之后的a:")
tf.print(a) 
print("----------------------------------")

结果如下:

a.shape: TensorShape([3, 3, 3])
a:
[[[3 5 2]
  [2 1 0]
  [2 8 9]]

 [[3 4 5]
  [7 1 3]
  [1 6 3]]

 [[5 1 1]
  [5 5 5]
  [6 0 8]]]
----------------------------------
resize之后的b:
[[3 5 2 ... 2 8 9]
 [3 4 5 ... 1 6 3]
 [5 1 1 ... 6 0 8]]
----------------------------------
resize之后的c:
[[3 5 2]
 [2 1 0]
 [2 8 9]
 ...
 [5 1 1]
 [5 5 5]
 [6 0 8]]
----------------------------------
resize之后的d:
[[[3]
  [5]
  [2]]

 [[2]
  [1]
  [0]]

 [[2]
  [8]
  [9]]

 ...

 [[5]
  [1]
  [1]]

 [[5]
  [5]
  [5]]

 [[6]
  [0]
  [8]]]
----------------------------------
resize之后的a:
[[[3 5 2]
  [2 1 0]
  [2 8 9]]

 [[3 4 5]
  [7 1 3]
  [1 6 3]]

 [[5 1 1]
  [5 5 5]
  [6 0 8]]]
----------------------------------

  通过上述示例我们可以发现,tf.reshape不仅可以实现同维度间张量的形状变换,还能实现不同维度间张量的形状变换。

tf.expand_dims 和 tf.squeeze

  tf.expand_dims主要用于在原张量的基础上,向第几个维度插入一个新维度,从而实现张量的维度扩张,而tf.squeeze用于自动识别张量中长度为1的维度,并将该维度消除,以实现对原张量的维度缩减的目的。实例代码如下:

#创建一个三维的形状为[3,3,3]的张量
a = tf.random.uniform(shape=[3, 3, 3], minval=0, maxval=10, dtype=tf.int32)
print("a.ndim:", a.ndim)
print("a.shape:", a.shape)
print("a:")
tf.print(a)
print("----------------------------------")

#在第axis = 1维插入一个新的维度
b = tf.expand_dims(a, axis=1) 
print("b.ndim:", b.ndim)
print("b.shape:", b.shape)
tf.print(b)
print("----------------------------------")

#将某个维度上长度为1的维度进行消除
c = tf.squeeze(b)
print("c.ndim:", c.ndim)
print("c.shape:", c.shape)
tf.print(c)
print("----------------------------------")

结果如下:

a.ndim: 3
a.shape: (3, 3, 3)
a:
[[[7 8 7]
  [7 3 3]
  [4 0 6]]

 [[8 4 5]
  [6 9 1]
  [4 4 9]]

 [[3 4 5]
  [1 1 2]
  [6 1 9]]]
----------------------------------
b.ndim: 4
b.shape: (3, 1, 3, 3)
[[[[7 8 7]
   [7 3 3]
   [4 0 6]]]


 [[[8 4 5]
   [6 9 1]
   [4 4 9]]]


 [[[3 4 5]
   [1 1 2]
   [6 1 9]]]]
----------------------------------
c.ndim: 3
c.shape: (3, 3, 3)
[[[7 8 7]
  [7 3 3]
  [4 0 6]]

 [[8 4 5]
  [6 9 1]
  [4 4 9]]

 [[3 4 5]
  [1 1 2]
  [6 1 9]]]
----------------------------------
tf.transpose

  与tf.reshape不同tf.transpose可以交换张量的维度进而改变张量元素的存储顺序。示例代码如下:

a = tf.random.uniform(shape=[2,3,4], minval=0, maxval=10, dtype=tf.int32)
print("a.shape:", a.shape)
print("a:")
tf.print(a)
print("----------------------------------")
# 转换成将形状转换成[4,2,3],
# 原张量中4对应于第2维,2对应于第0维,3对应于第1维,故perm=[2,0,1]
# 相比较原始张量的perm=[0,1,2],perm=[2,0,1]相当于先对第0维和第2维进行了维度交换,
# 然后对维度1和0进行交换
b = tf.transpose(a, perm=[2, 0, 1])
print("b.shape:", b.shape)
print("b:")
tf.print(b)
print("----------------------------------")
# 不对维度进行交换
c = tf.transpose(a, perm=[0, 1, 2])
print("c.shape:", c.shape)
print("c:")
tf.print(c)
print("----------------------------------")

结果如下:

a.shape: (2, 3, 4)
a:
[[[0 0 5 3]
  [2 5 3 8]
  [3 9 6 1]]

 [[5 7 3 0]
  [2 5 0 2]
  [4 3 8 0]]]
----------------------------------
b.shape: (4, 2, 3)
b:
[[[0 2 3]
  [5 2 4]]

 [[0 5 9]
  [7 5 3]]

 [[5 3 6]
  [3 0 8]]

 [[3 8 1]
  [0 2 0]]]
----------------------------------
c.shape: (2, 3, 4)
c:
[[[0 0 5 3]
  [2 5 3 8]
  [3 9 6 1]]

 [[5 7 3 0]
  [2 5 0 2]
  [4 3 8 0]]]
----------------------------------

  以上关于TensorFlow中张量的形状变换进行了简单的示例,下面我们继续了解一下TensorFlow中张量的拆分合并。

二、拆分合并

  针对张量的拆分,TensorFlow提供了tf.split方法来实现,而针对多个张量和合并,TensorFlow也提供了类似于Numpy和Pandas的tf.concattf.stack等方法。
  首先我们先对张量的拆分进行简单的示例,tf.split主要用于将某个张量按照某个维度平均拆分成若干份,从而得到多个拆分后的张量。代码如下:

a = tf.random.uniform(shape=[2,3,4], minval=0, maxval=10, dtype=tf.int32)
print("a.shape:", a.shape)
print("a:")
tf.print(a)
print("----------------------------------")
#基于维度0,将a张量平均拆分成两个
splits = tf.split(a, 2, axis = 0)
print("基于维度0,将a张量平均拆分成2个,拆分后的每个张量如下:")
for split in splits:
    tf.print(split)
    print("==================")
print("----------------------------------")

print("基于维度1,将a张量平均拆分成3个,拆分后的每个张量如下:")
splits = tf.split(a, 3, axis = 1)
for split in splits:
    tf.print(split)
    print("==================")
print("----------------------------------")

print("基于维度2,将a张量平均拆分成2个,拆分后的每个张量如下:")
splits = tf.split(a, 2, axis = 2)
for split in splits:
    tf.print(split)
    print("==================")
print("----------------------------------")

结果如下:

a.shape: (2, 3, 4)
a:
[[[8 3 4 2]
  [4 7 2 8]
  [9 9 9 1]]

 [[3 9 1 6]
  [4 7 5 9]
  [8 5 6 8]]]
----------------------------------
基于维度0,将a张量平均拆分成2个,拆分后的每个张量如下:
[[[8 3 4 2]
  [4 7 2 8]
  [9 9 9 1]]]
==================
[[[3 9 1 6]
  [4 7 5 9]
  [8 5 6 8]]]
==================
----------------------------------
基于维度1,将a张量平均拆分成3个,拆分后的每个张量如下:
[[[8 3 4 2]]

 [[3 9 1 6]]]
==================
[[[4 7 2 8]]

 [[4 7 5 9]]]
==================
[[[9 9 9 1]]

 [[8 5 6 8]]]
==================
----------------------------------
基于维度2,将a张量平均拆分成2个,拆分后的每个张量如下:
[[[8 3]
  [4 7]
  [9 9]]

 [[3 9]
  [4 7]
  [8 5]]]
==================
[[[4 2]
  [2 8]
  [9 1]]

 [[1 6]
  [5 9]
  [6 8]]]
==================
----------------------------------

  上面我们讲完了张量的拆分,下面我们介绍一下张量的合并。TensorFlow提供了两种方法来实现张量和合并,分别是tf.concattf.stack,其中tf.concat是从某个维度上对两个张量进行连接,形成新的结果张量,结果张量的维度和原张量的维度是一致的,不会增加结果张量的维度。而tf.stack是堆叠,会增加结果张量维度。我们先来看一下tf.concat的合并效果,代码如下:

a = tf.constant([[1, 2, 3], [4, 5, 6]])
b = tf.constant([[7, 8, 9], [10, 11,12]])
print("原始张量a:")
tf.print(a)
print("----------------------------------")
print("原始张量b:")
tf.print(b)
print("----------------------------------")

# 按照维度0对张量a和张量b进行合并
c = tf.concat([a, b], axis = 0)
print("按照维度0合并后的张量:")
print("c.shape:", c.shape)
print("c: ")
tf.print(c)
print("----------------------------------")

# 按照维度1对张量a和张量b进行合并
d = tf.concat([a, b], axis = 1)
print("按照维度1合并后的张量:")
print("d.shape:", d.shape)
print("d: ")
tf.print(d)
print("----------------------------------")

结果如下:

原始张量a:
[[1 2 3]
 [4 5 6]]
----------------------------------
原始张量b:
[[7 8 9]
 [10 11 12]]
----------------------------------
按照维度0合并后的张量:
c.shape: (4, 3)
c: 
[[1 2 3]
 [4 5 6]
 [7 8 9]
 [10 11 12]]
----------------------------------
按照维度1合并后的张量:
d.shape: (2, 6)
d: 
[[1 2 3 7 8 9]
 [4 5 6 10 11 12]]
----------------------------------

我们再看一下tf.stack的合并效果,代码如下:

a = tf.constant([[1, 2, 3, 4], [5, 6, 7, 8]])
b = tf.constant([[9, 10, 11, 12], [13, 14, 15, 16]])
print("原始张量a:")
print("a.shape:", a.shape)
tf.print(a)
print("----------------------------------")
print("原始张量b:")
print("b.shape:", b.shape)
tf.print(b)
print("----------------------------------")

# 按照维度0对张量a和张量b进行合并
c = tf.stack([a, b], axis = 0)
print("按照维度0合并后的张量:")
print("c.shape:", c.shape)
print("c: ")
tf.print(c)
print("----------------------------------")

# 按照维度1对张量a和张量b进行合并
d = tf.stack([a, b], axis = 1)
print("按照维度1合并后的张量:")
print("d.shape:", d.shape)
print("d: ")
tf.print(d)
print("----------------------------------")

结果如下:

原始张量a:
a.shape: (2, 4)
[[1 2 3 4]
 [5 6 7 8]]
----------------------------------
原始张量b:
b.shape: (2, 4)
[[9 10 11 12]
 [13 14 15 16]]
----------------------------------
按照维度0合并后的张量:
c.shape: (2, 2, 4)
c: 
[[[1 2 3 4]
  [5 6 7 8]]

 [[9 10 11 12]
  [13 14 15 16]]]
----------------------------------
按照维度1合并后的张量:
d.shape: (2, 2, 4)
d: 
[[[1 2 3 4]
  [9 10 11 12]]

 [[5 6 7 8]
  [13 14 15 16]]]
----------------------------------

  关于TensorFlow中张量的变换拆合就简单介绍到这里,其实TensorFlow中的张量操作很大程度上参考了Numpy中对ndarray的操作,因此上手起来还是比较容易的。

TensorFlow系列文章:
  1. TensorFlow核心概念之Tensor(1):张量创建
  2. TensorFlow核心概念之Tensor(2):索引切片
  3. TensorFlow核心概念之Tensor(3):变换拆合
  4. TensorFlow核心概念之Tensor(4):张量运算
  5. TensorFlow核心概念之计算图
  6. TensorFlow核心概念之Autograph
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 203,324评论 5 476
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,303评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,192评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,555评论 1 273
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,569评论 5 365
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,566评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,927评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,583评论 0 257
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,827评论 1 297
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,590评论 2 320
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,669评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,365评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,941评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,928评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,159评论 1 259
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,880评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,399评论 2 342