PyTorch模型的保存和加载

保存和加载模型

作者:geekboy

日期:2020-3-2

当训练好一个模型后,我们需要将模型保存到硬盘。同时当我们需要推理的时候需要将模型从硬盘中加载。

关于保存和加载模型,有三个核心功能需要熟悉

  1. torch.save:将序列化对象保存到磁盘。这个函数使用Python的pickle实用程序进行序列化。使用此功能可以保存各种对象的模型,张量和字典。
  2. torch.load:使用pickle的解腌功能将腌制的目标文件反序列化到内存中,此功能还有助于设备将数据加载到其中
  3. torch.nn.Module.load_state_dict:使用反序列化的state_dict加载模型的参数字典。

state_dict的概念

在PyTorch中,模型的可学习参数(即权重和偏差)torch.nn.Module包含在模型的参数中(通过访问model.parameters())。由于state_dict是一个简单的Python字典对象,每个层映射到其参数张量。这里要强调的是,只有具有可学习参数的层(卷积层,线性层)和已注册的缓冲区(batchnorm的running_mean)才在模型的state_dict中具有条目。优化器对象(torch.optim)还具有state_dict,其中包含有关优化器状态以及所用超参数的信息。

由于state_dict对象是Python词典,因此可以轻松地保存,更新,更改和还原它们,从而为PyTorch模型和优化器增加了很多模块化。
下面通过一个简单的model来看一下state_dict中到底有什么:

import torch
import torch.nn as nn
import torch.optim as optim
import torch.nn.functional as F
#定义模型
class TheModelClass(nn.Module):
    def __init__(self):
        super(TheModelClass,self).__init__()
        self.conv1=nn.Conv2d(3,6,5)
        self.pool=nn.MaxPool2d(2,2)
        self.conv2=nn.Conv2d(6,16,5)
        self.fc1=nn.Linear(16*5*5,120)
        self.fc2=nn.Linear(120,84)
        self.fc3=nn.Linear(84,10)
    def forward(self,x):
        x=self.pool(F.relu(self.conv1(x)))
        x=self.pool(F.relu(self.conv2(x)))
        x=x.view(-1,16*5*5)
        x=F.relu(self.fc1(x))
        x=F.relu(self.fc2(x))
        x=self.fc3(x)
        return x
#初始化模型
model=TheModelClass()
#初始化优化器
optimizer=optim.SGD(model.parameters(),lr=0.001,momentum=0.9)
for param_tensor in model.state_dict():
    print(param_tensor,"\t",model.state_dict()[param_tensor].size())

将得到如下的结果

conv1.weight     torch.Size([6, 3, 5, 5])
conv1.bias   torch.Size([6])
conv2.weight     torch.Size([16, 6, 5, 5])
conv2.bias   torch.Size([16])
fc1.weight   torch.Size([120, 400])
fc1.bias     torch.Size([120])
fc2.weight   torch.Size([84, 120])
fc2.bias     torch.Size([84])
fc3.weight   torch.Size([10, 84])
fc3.bias     torch.Size([10])

也可以查看优化器的状态:

#查看优化器的状态
print("Optimizer's state_dict:")
optimizer.state_dict()

结果如下:

Optimizer's state_dict:
{'state': {},
 'param_groups': [{'lr': 0.001,
   'momentum': 0.9,
   'dampening': 0,
   'weight_decay': 0,
   'nesterov': False,
   'params': [4901733872,
    4901735712,
    4901733072,
    4899689088,
    4899979824,
    4901626736,
    4901626096,
    4901626496,
    4901626896,
    4901628736]}]}

推理模型的保存和加载

保存/加载 state_dict(极力推荐)

Save:

torch.save(model.state_dict(),"model.pth")

load:

model.load_state_dict(torch.load("model.pth"))
model.eval()
TheModelClass(
  (conv1): Conv2d(3, 6, kernel_size=(5, 5), stride=(1, 1))
  (pool): MaxPool2d(kernel_size=2, stride=2, padding=0, dilation=1, ceil_mode=False)
  (conv2): Conv2d(6, 16, kernel_size=(5, 5), stride=(1, 1))
  (fc1): Linear(in_features=400, out_features=120, bias=True)
  (fc2): Linear(in_features=120, out_features=84, bias=True)
  (fc3): Linear(in_features=84, out_features=10, bias=True)
)

保存模型已进行推理时,仅需要保存训练后的模型学习参数。使用torch.save()函数保存模型的state_dict将为您提供最大的灵活性,以便以后恢复模型,这就是为什么推荐使用此方法来保存模型。常见的PyTorch约定是使用.pt或.pth文件扩展名保存模型。这里需要强调一点:

必须调用model.eval(),以便在运行推理之前将dropout和batch规范化层设置为评估模式。如果不这样做,将会产生不一致的推断结果

请注意,在使用load_state_dict()函数使用字典对象,而不是保存对象的路径。这意味着,在将保存的state_dict传递给
load_state_dict()函数之前,必须对其进行反序列化。如,无法使用加载model.load_state_dict(PATH)

保存整个模型并加载

**Save:**

torch.save(model,"whole_model.pth")

Load:

model=torch.load("whole_model.pth")
model.eval()

这种保存/加载过程使用最直观的语法,并且涉及最少的代码。以这种方式保存模型将使用Python的pickle模块保存整个模块。这种方法的缺点时序列化的数据保存到特定的类,并且在保存模型时使用确切的目录结构。这样做的原因是因为pickle不会保存模型类本身。而是将其保存到包含类的文件的路径,该路径在加载时使用。因此,在其他项目中使用或重构后,代码可能会以各种方式中断。
### 保存模型的状态并加载
有时候可能由于其他原因模型训练过程中被中断了,这时候就需要保存模型的状态,从终止状态进行训练。首先我们先定义模型的状态:

state={'model':model.state_dict(),'optimizer':optimizer.state_dict(),'epoch':epoch}
torch.save(state,path)

同样加载也十分的简单只需要下面操作就可以了:

checkpoint=torch.load(path)
model.load_state_dict(checkpoint('model'))
optimizer.load_state_dict(checkpoint['optimizer'])
epoch=checkpoint['epoch']

### 跨设备保存加载模型
#### 保存在GPU上,在CPU上加载
**Save:**

torch.save(model.state_dict(),"GPU.pth")

**Load:**

device=torch.device("cpu")
model=TheModelClass()
model.load_state_dict(torch.load("GPU.pth",map_location=device))

最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 203,179评论 5 476
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,229评论 2 380
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,032评论 0 336
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,533评论 1 273
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,531评论 5 365
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,539评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,916评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,574评论 0 256
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,813评论 1 296
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,568评论 2 320
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,654评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,354评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,937评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,918评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,152评论 1 259
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,852评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,378评论 2 342

推荐阅读更多精彩内容