赞
踩
torch.load()先在CPU上加载,不会依赖于保存模型的设备。如果加载失败,可能是因为没有包含某些设备,比如你在gpu上训练保存的模型,而在cpu上加载,可能会报错,此时,需要使用map_location来将存储动态重新映射到可选设备上,比如map_location=torch.device('cpu'),意思是映射到cpu上,在cpu上加载模型,无论你这个模型从哪里训练保存的。
一句话:map_location适用于修改模型能在gpu上运行还是cpu上运行。如果map_location是可调用的,那么对于每个带有两个参数的序列化存储,它将被调用一次:storage和location。存储参数将是存储的初始反序列化,驻留在CPU上。每个序列化存储都有一个与之关联的位置标记,它标识保存它的设备,这个标记是传递给map_location的第二个参数。内置的位置标签是“cpu”为cpu张量和“cuda:device_id”(例如:device_id)。“cuda:2”)表示cuda张力。map_location应该返回None或一个存储。如果map_location返回一个存储,它将被用作最终的反序列化对象,已经移动到正确的设备。否则,torch.load()将退回到默认行为,就好像没有指定map_location一样。
如果map_location是一个torch.device对象或一个包含设备标签的字符串,它表示所有张量应该被加载的位置。
torch.load(f, map_location=None, pickle_module=<module 'pickle' from '/opt/conda/lib/python3.6/pickle.py'>, **pickle_load_args)
- 1)f – 类文件对象(必须实现read()、readline()、tell()和seek()),或包含文件名的字符串或 os.PathLike 对象
-
- 2)map_location – 一个函数、字符串或字典,指定如何重新映射存储位置torch.device
-
- 3)pickle_module – 用于解封元数据和对象的模块(必须与pickle_module用于序列化文件的模块匹配)
-
- 4)pickle_ load _args –(仅限 Python 3)传递给 and的可选关键字参数,例如 .pickle_module.load()pickle_module.Unpickler()errors=...
一般情况下,加载模型,主要用于预测新来的一组样本。预测的主要流程包括:输入数据——预处理——加载模型——预测得返回值(类别或者是属于某一类别的概率)
- def predict(test_data, model_path, config):
- ‘’‘
- input:
- test_data:测试数据
- model_path:模型的保存路径 model_path = './save/20201104_204451.ckpt'
- output:
- score:模型输出属于某一类别的概率
- ’‘’
- data = process_data_for_predict(test_data)#预处理数据,使得数据格式符合模型输入形式
- model = torch.load(model_path)#加载模型
- score = model(data)#模型预测
- return score #返回得分
参考:
2) pytorch(一)模型加载函数torch.load()_凝眸伏笔的博客-CSDN博客_python torch.load
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。