keras-简单CNN识别猫狗

一、实现软件配置

1.keras2.2.0-tensorflow-GPU1.8

2.python3.6

3.spyder3.3.2

二、实现步骤

1.收集猫狗图片,并且在当前文件运行目录,添加文件夹image,image里再添加train和test。最后在train和test文件夹添加dog和cat文件夹并将图片放入

2.定义简单顺序模型model = Sequential()  并在模型中添加卷积-卷积-池化   -卷积-卷积-池化- -卷积-卷积-池化-  全连接层-全连接层

3.定义优化器Adam和损失函数categorical_crossentropy

4.使用ImageDataGenerator生成增强训练、测试数据集   将处理完的图片使用train_datagen.flow_from_directory生成训练数据

5.使用model.fit_generator设置训练参数

6.最后用折线图展现模型效果

三、实现代码

# coding: utf-8

from keras.models import Sequential

from keras.layers import Convolution2D, MaxPooling2D

from keras.layers import Activation, Dropout, Flatten, Dense

from keras.optimizers import Adam

from keras.preprocessing.image import ImageDataGenerator

import os

import matplotlib.pyplot as plt

# 定义模型

model = Sequential()

model.add(Convolution2D(input_shape=(150,150,3), filters=32, kernel_size=3, strides=1, padding='same', activation = 'relu'))

model.add(Convolution2D(filters=32, kernel_size=3, strides=1, padding='same', activation = 'relu'))

model.add(MaxPooling2D(pool_size=2, strides=2, padding='valid'))

model.add(Convolution2D(filters=64, kernel_size=3, strides=1, padding='same', activation = 'relu'))

model.add(Convolution2D(filters=64, kernel_size=3, strides=1, padding='same', activation = 'relu'))

model.add(MaxPooling2D(pool_size=2, strides=2, padding='valid'))

model.add(Convolution2D(filters=128, kernel_size=3, strides=1, padding='same', activation = 'relu'))

model.add(Convolution2D(filters=128, kernel_size=3, strides=1, padding='same', activation = 'relu'))

model.add(MaxPooling2D(pool_size=2, strides=2, padding='valid'))

model.add(Flatten())

model.add(Dense(64,activation = 'relu'))

model.add(Dropout(0.5))

model.add(Dense(2,activation = 'softmax'))

# 定义优化器

adam = Adam(lr=1e-4)

# 定义优化器,loss function,训练过程中计算准确率

model.compile(optimizer=adam,loss='categorical_crossentropy',metrics=['accuracy'])

model.summary()

# 训练集数据生成

train_datagen = ImageDataGenerator(

        rescale=1./255,

        shear_range=0.2,

        zoom_range=0.2,

        horizontal_flip=True)

# 测试集数据处理

test_datagen = ImageDataGenerator(rescale=1./255)

batch_size = 32

# 生成训练数据

train_generator = train_datagen.flow_from_directory(

        'image/train',  # 训练数据路径

        target_size=(150, 150),  # 设置图片大小

        batch_size=batch_size # 批次大小

        )

# 测试数据

test_generator = test_datagen.flow_from_directory(

        'image/test',  # 训练数据路径

        target_size=(150, 150),  # 设置图片大小

        batch_size=batch_size # 批次大小

        )

# 统计文件个数

totalFileCount = sum([len(files) for root, dirs, files in os.walk('image/train')])

totalFileCount

#查看标签

train_generator.class_indices

#

#model.fit_generator(

#        train_generator,

#        steps_per_epoch=totalFileCount/batch_size,

#        epochs=5,                                #设置训练周期数50

#        validation_data=test_generator,

#        validation_steps=1000/batch_size

#        )

#

## 保存模型

#model.save('CNN1.h5')

history = model.fit_generator(

    train_generator, steps_per_epoch=totalFileCount/batch_size  ,

    epochs=50, verbose=1,

    validation_data=test_generator, validation_steps=1000/batch_size

)

model.save('CNN1.h5')

#画图

acc = history.history['acc']            #获取训练集准确性数据

val_acc = history.history['val_acc']    #获取验证集准确性数据

loss = history.history['loss']          #获取训练集错误值数据

val_loss = history.history['val_loss']  #获取验证集错误值数据

epochs = range(1,len(acc)+1)

plt.title('model accuracy')            #标题

plt.ylabel('accuracy')                  #y轴名称

plt.xlabel('epoch')                    #x轴名称

plt.plot(epochs,acc,label='Train_acc')    #以epochs为横坐标,以训练集准确性为纵坐标

plt.plot(epochs,val_acc,label='Val_acc') #以epochs为横坐标,以验证集准确性为纵坐标

plt.plot(epochs,loss,label='Train_loss')

plt.plot(epochs,val_loss,label='Val_loss')

plt.legend(loc='upper left')  #绘制图例,即标明图中的线段代表何种含义

plt.savefig('loss-acc.png')

plt.show()    #显示所有图表

四、训练结果


五、测试代码

import numpy as np

from keras.models import load_model,Sequential

from keras.preprocessing.image import load_img,img_to_array

label = np.array(['cat','dog'])

#载入模型

model = load_model('CNN1.h5')

#导入图片

path = 'temp/2.jpg'

image = load_img(path)

image = image.resize((150,150))

image = img_to_array(image)

image = image/255

image = np.expand_dims(image,0)

image.shape

#print(label[model.predict_class(image)])

predict = model.predict(image)              #采用合并预测的方法

predict=np.argmax(predict,axis=1)

print(label[predict])

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 203,098评论 5 476
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,213评论 2 380
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 149,960评论 0 336
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,519评论 1 273
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,512评论 5 364
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,533评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,914评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,574评论 0 256
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,804评论 1 296
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,563评论 2 319
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,644评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,350评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,933评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,908评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,146评论 1 259
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,847评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,361评论 2 342

推荐阅读更多精彩内容