tensorflow-Sequential、compile、fit、summary

1. tf.keras.models.Sequential([网络结构]) # 描述各层网络

Sequentail()可以认为是个容器,这个容器里封装了一个神经网络结构。在Sequential中要描述从输入层到输出层每一层的网络结构。
每一层的网络结构可以是

  • 拉直层: tf.keras.layers.Flatten() ,这一层不含计算,只是形状转换,把输入特征拉直,变成一维数组
  • 全连接层: tf.keras.layers.Dense(神经元个数,activation=“激活函数”,kernel_regularizer=哪种正则化), 这一层告知神经元个数、使用什么激活函数、采用什么正则化方法
    • 激活函数可以选择relu, softmax, sigmoid, tanh
    • 正则化可以选择 tf.keras.regularizers.l1(), tf.keras.relularizers.l2()
  • 卷积神经网络层:tf.keras.layers.Conv2D(filters=卷积核个数, kernel_size=卷积核尺寸, strides=卷积步长, padding="valid" or "same")
  • 循环神经网络层:tf.keras.layers.LSTM()

2. model.compile(optimizer=优化器,loss=损失函数,metrics=["准确率"])

在这里告知训练时选择的优化器、损失函数、和评测指标。
这些参数都可以使用字符串形式或函数形式

  • optimizer: 引导神经网络更新参数
    • sgd or tf.keras.optimizer.SGD(lr=学习率,momentum=动量参数)
    • adagrad or tf.keras.optimizer.Adagrad(lr=学习率)
    • adadelta or tf.keras.optimizer.Adadelta(lr=学习率)
    • adam or tf.keras.optimizer.Adam(lr=学习率, beta_1=0.9, beta_2=0.999)
  • loss: 损失函数
    • mes or tf.keras.losses.MeanSquaredError()
    • sparse_categorical_crossentropy or tf.keras.SparseCategoricalCrossentropy(from_logits=False)(是原始输出还是经过概率分布)
  • metrics:评测指标
    • accuracy:y_ 和 y 都是数值,如y_=[1] y=[1]
    • categorical_accuracy: y_和y都是独热码(概率分布),如y_=[0, 1, 0], y=[0.256, 0.695, 0.048]
    • sparse_categorical_accuracy: y_是数值,y是独热码(概率分布),如y_=[1], y=[0.256, 0.695, 0.048]

3. model.fit(训练集的输入特征,训练集的标签,batch_size= 每次喂入神经网络的样本数, epochs=迭代多少次数据集, validation_data=(测试集的输入特征,测试集的标签,), validation_split=从训练集划分多少比例给测试集,validation_freq=多少次epoch测试一次)

4. model.summary()

打印出网络的结构和参数统计

5. 示例:鸢尾花分类

import tensorflow as tf
from sklearn import datasets
import numpy as np

# 载入数据(训练集和测试集在训练时按比例划分,此处暂无划分)
x_train = datasets.load_iris().data
y_train = datasets.load_iris().target

# 用相同的随机种子让特征集和标签集乱序并一一对应
np.random.seed(123)
np.random.shuffle(x_train)
np.random.seed(123)
np.random.shuffle(y_train)

# 搭建神经网络结构:3个神经元的全连接层,采用softmax激活函数,
# l2正则化防治过拟合
model = tf.keras.models.Sequential([
    tf.keras.layers.Dense(3, activation='softmax', 
                          kernel_regularizer=tf.keras.regularizers.l2())
])
"""
# class写法
from tensorflow.keras import Model
from tensorflow.keras.layers import Dense


class IrisModel(Model):
    def __init__(self):
        super(IrisModel, self).__init__()
        self.d1 = Dense(3, activation='softmax',
                          kernel_regularizer=tf.keras.regularizers.l2())
    
    def call(self, x):
        y = self.d1(x)
        return y

model = IrisModel()
"""
# 配置训练方法:采用SGD优化器,SparseCategoricalCrossentropy损失函数(由于采
# 用了softmax作为激活函数,输出的是概率而不是原始分布,所以from_logits
# 为False), sparse_categorical_accuracy作为评测指标(由于鸢尾花标签
# 为[0, 1, 2], 而网络结构输出的为概率分布)
model.compile(optimizer=tf.keras.optimizers.SGD(lr=0.1),
              loss=tf.keras.losses.SparseCategoricalCrossentropy(from_logits=False),
              metrics=["sparse_categorical_accuracy"])

# 训练模型:将20%的数据用于测试,每次喂入32组数据,数据集循环
# 迭代500次,每迭代20次训练集要在测试集中验证一次准确率
model.fit(x_train, y_train, batch_size=32, epochs=500, 
          validation_split=0.2, validation_freq=20)

# 打印出网络结构和参数统计
model.summary()

运行结果:

Epoch 498/500
4/4 [==============================] - 0s 0s/step - loss: 0.3155 - sparse_categorical_accuracy: 0.9833
Epoch 499/500
1/4 [======>.......................] - ETA: 0s - loss: 0.2978 - sparse_categorical_accuracy: 1.0000
4/4 [==============================] - 0s 2ms/step - loss: 0.3251 - sparse_categorical_accuracy: 0.9750
Epoch 500/500
1/4 [======>.......................] - ETA: 0s - loss: 0.3148 - sparse_categorical_accuracy: 0.9688
4/4 [==============================] - 0s 10ms/step - loss: 0.3210 - sparse_categorical_accuracy: 0.9833 - val_loss: 0.4276 - val_sparse_categorical_accuracy: 0.9000
Model: "sequential"
_________________________________________________________________
Layer (type)                 Output Shape              Param #   
=================================================================
dense (Dense)                multiple                  15        
=================================================================
Total params: 15
Trainable params: 15
Non-trainable params: 0
_________________________________________________________________
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 194,911评论 5 460
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 82,014评论 2 371
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 142,129评论 0 320
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 52,283评论 1 264
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 61,159评论 4 357
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 46,161评论 1 272
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 36,565评论 3 382
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 35,251评论 0 253
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 39,531评论 1 292
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 34,619评论 2 310
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 36,383评论 1 326
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 32,255评论 3 313
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 37,624评论 3 299
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 28,916评论 0 17
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 30,199评论 1 250
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 41,553评论 2 342
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 40,756评论 2 335