PyTorch-6 save and load models 保存和加载模型

本文源自 http://studyai.com/pytorch-1.4/beginner/saving_loading_models.html

本文档提供了关于PyTorch模型的保存和加载的各种用例的解决方案。 可以随意阅读整个文档,或者跳过所需的代码以获得所需的用例。

当涉及到保存和加载模型时,需要熟悉三个核心函数:

torch.save: 将序列化对象保存到磁盘。此函数使用Python的 pickle 实用程序进行序列化。使用此函数可以保存各种对象的模型、张量和字典。
torch.load: 使用 pickle 的unpickling facilities 将被pickled的对象文件反序列化到内存。此函数还可方便设备将数据加载进来(请看 Saving & Loading Model Across Devices).
torch.nn.Module.load_state_dict: 使用反序列化的 state_dict 加载模型的参数字典。 关于 state_dict 的更多信息, 请看 什么是 state_dict?.

内容提要:

什么是 state_dict?
保存 & 加载 Model 用于推断
保存 & 加载一个CheckPointCheckPoint
保存多个 Models 到一个文件
使用来自不同Model的参数热启动另一个Model
跨设备 保存 & 加载 Model

什么是 state_dict?

在PyTorch中,torch.nn.Module 模型的可学习参数(即权重和偏置)包含在模型的 parameters 中(使用 model.parameters() 访问)。 state_dict 只是一个Python字典对象,它将每个层映射到其参数张量。 请注意,只有具有可学习参数的层(卷积层、线性层等)在模型的 state_dict 中有条目(entries)。 Optimizer对象(torch.optim)还有一个 state_dict ,它包含关于优化器状态的信息以及使用的超参数。

因为 state_dict 对象是Python字典,所以可以轻松地保存、更新、修改和恢复它们, 从而为PyTorch模型和优化器添加了大量的模块化。
例子:

让我们从 Training a classifier 中使用的简单模型中查看 state_dict 。

# 定义模型
class TheModelClass(nn.Module):
    def __init__(self):
        super(TheModelClass, self).__init__()
        self.conv1 = nn.Conv2d(3, 6, 5)
        self.pool = nn.MaxPool2d(2, 2)
        self.conv2 = nn.Conv2d(6, 16, 5)
        self.fc1 = nn.Linear(16 * 5 * 5, 120)
        self.fc2 = nn.Linear(120, 84)
        self.fc3 = nn.Linear(84, 10)

    def forward(self, x):
        x = self.pool(F.relu(self.conv1(x)))
        x = self.pool(F.relu(self.conv2(x)))
        x = x.view(-1, 16 * 5 * 5)
        x = F.relu(self.fc1(x))
        x = F.relu(self.fc2(x))
        x = self.fc3(x)
        return x

# 初始化 model
model = TheModelClass()

# 初始化 optimizer
optimizer = optim.SGD(model.parameters(), lr=0.001, momentum=0.9)

# 输出 model 的 state_dict
print("Model's state_dict:")
for param_tensor in model.state_dict():
    print(param_tensor, "\t", model.state_dict()[param_tensor].size())

# 输出 optimizer 的 state_dict
print("Optimizer's state_dict:")
for var_name in optimizer.state_dict():
    print(var_name, "\t", optimizer.state_dict()[var_name])

Output:

Model's state_dict:
conv1.weight     torch.Size([6, 3, 5, 5])
conv1.bias   torch.Size([6])
conv2.weight     torch.Size([16, 6, 5, 5])
conv2.bias   torch.Size([16])
fc1.weight   torch.Size([120, 400])
fc1.bias     torch.Size([120])
fc2.weight   torch.Size([84, 120])
fc2.bias     torch.Size([84])
fc3.weight   torch.Size([10, 84])
fc3.bias     torch.Size([10])

Optimizer's state_dict:
state    {}
param_groups     [{'lr': 0.001, 'momentum': 0.9, 'dampening': 0, 'weight_decay': 0, 'nesterov': False, 'params': [4675713712, 4675713784, 4675714000, 4675714072, 4675714216, 4675714288, 4675714432, 4675714504, 4675714648, 4675714720]}]

保存 & 加载 Model 用于推断

保存/加载 state_dict (推荐方式)

保存:

torch.save(model.state_dict(), PATH)

加载:

model = TheModelClass(*args, **kwargs)
model.load_state_dict(torch.load(PATH))
model.eval()

在保存模型进行推理时,只需保存经过训练的模型的学习参数即可。使用 torch.save() 函数 保存模型的 state_dict 将为以后恢复模型提供最大的灵活性,这就是为什么推荐使用它来保存模型。

一个常见的PyTorch约定是使用 .pt 或 .pth 文件扩展名保存模型。

请记住,在运行推理之前,您必须调用 model.eval() 来将 dropout 和 batch normalization layers 设置为评估模式。如果不这样做,就会产生不一致的推理结果。

Note

注意,load_state_dict() 函数接受字典对象,而 不是 保存对象的路径。 这意味着在将保存的 state_dict 传递给 load_state_dict() 函数之前,必须对其进行反序列化。 例如,不能使用 model.load_state_dict(Path) 加载 。
保存/加载 整个 Model

保存:

torch.save(model, PATH)

加载:

# Model class must be defined somewhere
model = torch.load(PATH)
model.eval()

这个保存/加载过程使用最直观的语法,涉及的代码最少。以这种方式保存模型将使用Python的 pickle 模块保存整个model。 这种方法的缺点是序列化数据被绑定到保存模型时使用的特定类和精确的目录结构。 原因是pickle没有保存模型类本身。相反,它保存到包含类的文件的路径,该类在加载时使用。 正因为如此,当您在其他项目中使用时或在重构之后,您的代码可能以各种方式中断。

一个常见的PyTorch约定是使用 .pt 或 .pth 文件扩展名保存模型。

请记住,在运行推理之前,您必须调用 model.eval() 来将 dropout 和 batch normalization layers 设置为评估模式。如果不这样做,就会产生不一致的推理结果。

保存 & 加载 Checkpoint 用于 推断 and/or 恢复训练

保存:

torch.save({
            'epoch': epoch,
            'model_state_dict': model.state_dict(),
            'optimizer_state_dict': optimizer.state_dict(),
            'loss': loss,
            ...
            }, PATH)

加载:

model = TheModelClass(*args, **kwargs)
optimizer = TheOptimizerClass(*args, **kwargs)

checkpoint = torch.load(PATH)
model.load_state_dict(checkpoint['model_state_dict'])
optimizer.load_state_dict(checkpoint['optimizer_state_dict'])
epoch = checkpoint['epoch']
loss = checkpoint['loss']

model.eval()
# - or -
model.train()

当保存一般检查点(用于推理或恢复训练)时,您必须保存的不仅仅是模型的 state_dict 。 保存优化器的 state_dict 也很重要,因为它包含缓冲区和参数,这些缓冲区和参数是随着模型的训练而更新的。 其他你可能想要保存的项是 你离开训练过程时的epoch,最新记录的训练损失,外部的 torch.nn.Embedding 层,等等。

若要保存多个组件,请将它们组织在字典中,并使用 torch.save() 对字典进行序列化。 一个常见的PyTorch约定是使用 .tar 文件扩展名保存这些检查点。

要加载这些项,首先初始化模型和优化器,然后使用 torch.load() 在本地加载字典。从这里,您可以很容易地访问保存的项目, 只需查询字典,正如您所期望的。

请记住,在运行推理之前,您必须调用 model.eval() 来将 dropout 和 batch normalization layers 设置为评估模式。如果不这样做,就会产生不一致的推理结果。 如果希望恢复training,请调用 model.train() 以确保这些层处于训练模式。
在一个文件中保存多个 Models
保存:

torch.save({
            'modelA_state_dict': modelA.state_dict(),
            'modelB_state_dict': modelB.state_dict(),
            'optimizerA_state_dict': optimizerA.state_dict(),
            'optimizerB_state_dict': optimizerB.state_dict(),
            ...
            }, PATH)

加载:

modelA = TheModelAClass(*args, **kwargs)
modelB = TheModelBClass(*args, **kwargs)
optimizerA = TheOptimizerAClass(*args, **kwargs)
optimizerB = TheOptimizerBClass(*args, **kwargs)

checkpoint = torch.load(PATH)
modelA.load_state_dict(checkpoint['modelA_state_dict'])
modelB.load_state_dict(checkpoint['modelB_state_dict'])
optimizerA.load_state_dict(checkpoint['optimizerA_state_dict'])
optimizerB.load_state_dict(checkpoint['optimizerB_state_dict'])

modelA.eval()
modelB.eval()
# - or -
modelA.train()
modelB.train()

当保存由多个 torch.nn.Modules 组成的模型时,例如GAN、sequence-to-sequence model 或 ensemble of models, 您将遵循与保存一般检查点相同的方法。换句话说,保存每个模型的 state_dict 的字典和相应的优化器。 如前所述,只需将任何其他项目追加到字典中,就可以保存可能帮助您恢复训练的任何其他项目。

一个常见的PyTorch约定是使用 .tar 文件扩展名保存这些检查点。

要加载模型,首先初始化模型和优化器,然后使用 torch.load() 本地加载字典。 从这里,您可以很容易地访问保存的项目,只需查询字典,正如您所期望的。

请记住,在运行推理之前,您必须调用 model.eval() 来将 dropout 和 batch normalization layers 设置为评估模式。如果不这样做,就会产生不一致的推理结果。 如果希望恢复training,请调用 model.train() 以确保这些层处于训练模式。
使用来自不同Model的参数热启动另一个Model
保存:

torch.save(modelA.state_dict(), PATH)

加载:

modelB = TheModelBClass(*args, **kwargs)
modelB.load_state_dict(torch.load(PATH), strict=False)

当迁移学习或训练一个新的复杂模型时,部分加载模型或加载部分模型是常见的场景。 利用经过训练的参数,即使只有少数参数是可用的,也将有助于启动训练过程, 并有望帮助您的模型比从头开始的训练更快地收敛。

无论您是从缺少一些键的部分 state_dict 加载,还是加载一个 state_dict 中的键比您要加载的模型多, 您都可以在 load_state_dict() 函数中将 strict 参数设置为 false ,以忽略不匹配的键。

如果希望将参数从一个层加载到另一个层,但有些键不匹配,则只需更改要加载的 state_dict 中参数键的名称, 以与加载到的模型中的键匹配。
跨设备 保存 & 加载 Model
保存在GPU, 加载到CPU

保存:

torch.save(model.state_dict(), PATH)

加载:

device = torch.device('cpu')
model = TheModelClass(*args, **kwargs)
model.load_state_dict(torch.load(PATH, map_location=device))

在CPU上加载用GPU训练的模型时,将 torch.device('cpu') 传递到 torch.load() 函数中的 map_location 参数。 在这种情况下,在张量基础上的存储将使用 map_location 参数动态地重映射到CPU设备。
保存在 GPU, 加载到 GPU

保存:

torch.save(model.state_dict(), PATH)

加载:

device = torch.device("cuda")
model = TheModelClass(*args, **kwargs)
model.load_state_dict(torch.load(PATH))
model.to(device)
# Make sure to call input = input.to(device) on any input tensors that you feed to the model

当把在GPU上训练和保存的模型加载到GPU上时,只需使用 model.to(torch.device('cuda')) 将初始化的 model 转换为CUDA优化模型。 此外,确保在所有模型输入上使用 .to(torch.device('cuda')) 函数来为模型准备数据。 注意,调用 my_tensor.to(device) 将返回GPU上 my_tensor 的新副本。它 不会 覆盖 my_tensor 。 因此,请记住手动覆盖张量:my_tensor = my_tensor.to(torch.device('cuda')) 。
保存在CPU, 加载到GPU

保存:

torch.save(model.state_dict(), PATH)

加载:

device = torch.device("cuda")
model = TheModelClass(*args, **kwargs)
model.load_state_dict(torch.load(PATH, map_location="cuda:0"))  # Choose whatever GPU device number you want
model.to(device)
# 确保调用 input = input.to(device) 在任意的输入tensors上

当把在CPU上训练和保存的模型 加载到GPU上时,请将 torch.load() 函数中的 map_location 参数设置为 cuda:device_id 。这会将模型加载到给定的GPU设备上。接下来,请确保调用 model.to(torch.device('cuda')) 将模型的参数张量转换为CUDA张量。 最后,确保在所有模型输入上使用 .to(torch.device('cuda')) 函数来为CUDA优化模型准备数据。 注意,调用 my_tensor.to(device) 将返回GPU上 my_tensor 的新副本。它不会覆盖 my_tensor 。 因此,请记住手动覆盖张量:my_tensor = my_tensor.to(torch.device('cuda')) 。

# 保存 ``torch.nn.DataParallel`` Models
# ^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^^
#
# **保存:**
#
# .. code:: python
#
#    torch.save(model.module.state_dict(), PATH)
#
# **加载:**
#
# .. code:: python
#
#    # 加载到任何你想加载的设备上
#
# ``torch.nn.DataParallel`` 是一个支持并行GPU利用率的模型包装器。
# 要一般性地保存 ``DataParallel`` 模型,请保存 ``model.module.state_dict()``。
# 这样,您就可以灵活地将模型加载到任何您想要的设备上。
#
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 203,179评论 5 476
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,229评论 2 380
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,032评论 0 336
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,533评论 1 273
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,531评论 5 365
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,539评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,916评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,574评论 0 256
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,813评论 1 296
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,568评论 2 320
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,654评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,354评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,937评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,918评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,152评论 1 259
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 42,852评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,378评论 2 342

推荐阅读更多精彩内容