网站首页 > 主流语言 > python 正文
这代表将模型加载到指定设备上。
其中,device=torch.device("cpu")代表的使用cpu,而device=torch.device("cuda")则代表的使用GPU。
当我们指定了设备之后,就需要将模型加载到相应设备中,此时需要使用model=model.to(device),将模型加载到相应的设备中。
将由GPU保存的模型加载到CPU上。
将torch.load()函数中的map_location参数设置为torch.device('cpu')
device = torch.device('cpu') model = TheModelClass(*args, **kwargs) model.load_state_dict(torch.load(PATH, map_location=device))
将由GPU保存的模型加载到GPU上。确保对输入的tensors调用input = input.to(device)方法。
device = torch.device("cuda") model = TheModelClass(*args, **kwargs) model.load_state_dict(torch.load(PATH)) model.to(device)
将由CPU保存的模型加载到GPU上。
确保对输入的tensors调用input = input.to(device)方法。map_location是将模型加载到GPU上,model.to(torch.device('cuda'))是将模型参数加载为CUDA的tensor。
最后保证使用.to(torch.device('cuda'))方法将需要使用的参数放入CUDA。
device = torch.device("cuda") model = TheModelClass(*args, **kwargs) model.load_state_dict(torch.load(PATH, map_location="cuda:0")) # Choose whatever GPU device number you want model.to(device)
补充:pytorch中model.to(device)和map_location=device的区别
一、简介
在已训练并保存在CPU上的GPU上加载模型时,加载模型时经常由于训练和保存模型时设备不同出现读取模型时出现错误,在对跨设备的模型读取时候涉及到两个参数的使用,分别是model.to(device)和map_location=devicel两个参数,简介一下两者的不同。
将map_location函数中的参数设置 torch.load()为 cuda:device_id。这会将模型加载到给定的GPU设备。
调用model.to(torch.device('cuda'))将模型的参数张量转换为CUDA张量,无论在cpu上训练还是gpu上训练,保存的模型参数都是参数张量不是cuda张量,因此,cpu设备上不需要使用torch.to(torch.device("cpu"))。
二、实例
了解了两者代表的意义,以下介绍两者的使用。
1、保存在GPU上,在CPU上加载
保存:
torch.save(model.state_dict(), PATH)
加载:
device = torch.device('cpu') model = TheModelClass(*args, **kwargs) model.load_state_dict(torch.load(PATH, map_location=device))
解释:
在使用GPU训练的CPU上加载模型时,请传递 torch.device('cpu')给map_location函数中的 torch.load()参数,使用map_location参数将张量下面的存储器动态地重新映射到CPU设备 。
2、保存在GPU上,在GPU上加载
保存:
torch.save(model.state_dict(), PATH)
加载:
device = torch.device("cuda") model = TheModelClass(*args, **kwargs) model.load_state_dict(torch.load(PATH)) model.to(device) # Make sure to call input = input.to(device) on any input tensors that you feed to the model
解释:
在GPU上训练并保存在GPU上的模型时,只需将初始化model模型转换为CUDA优化模型即可model.to(torch.device('cuda'))。
此外,请务必.to(torch.device('cuda'))在所有模型输入上使用该 功能来准备模型的数据。
请注意,调用my_tensor.to(device) 返回my_tensorGPU上的新副本。
它不会覆盖 my_tensor。
因此,请记住手动覆盖张量: my_tensor = my_tensor.to(torch.device('cuda'))
3、保存在CPU,在GPU上加载
保存:
torch.save(model.state_dict(), PATH)
加载:
device = torch.device("cuda") model = TheModelClass(*args, **kwargs) model.load_state_dict(torch.load(PATH, map_location="cuda:0")) # Choose whatever GPU device number you want model.to(device) # Make sure to call input = input.to(device) on any input tensors that you feed to the model
解释:
在已训练并保存在CPU上的GPU上加载模型时,请将map_location函数中的参数设置 torch.load()为 cuda:device_id。
这会将模型加载到给定的GPU设备。
接下来,请务必调用model.to(torch.device('cuda'))将模型的参数张量转换为CUDA张量。
最后,确保.to(torch.device('cuda'))在所有模型输入上使用该 函数来为CUDA优化模型准备数据。
请注意,调用 my_tensor.to(device)返回my_tensorGPU上的新副本。
它不会覆盖my_tensor。
因此,请记住手动覆盖张量:my_tensor = my_tensor.to(torch.device('cuda'))
以上为个人经验,希望能给大家一个参考,也希望大家多多支持开源网。
- 上一篇: flask框架实现修改密码和免密登录功能
- 下一篇: 一劳永逸彻底解决pip install慢的办法
猜你喜欢
- 2021-07-16 pytorch--之halfTensor的使用详解
- 2021-07-16 pytorch加载预训练模型与自己模型不匹配的解决方案
- 2021-07-16 解决pytorch-gpu 安装失败的记录
- 2021-07-16 pytorch中.to(device) 和.cuda()的区别说明
- 2021-07-12 在pytorch中计算准确率,召回率和F1值的操作
- 2021-07-12 pytorch-autograde-计算图的特点说明
- 2021-07-12 pytorch中常用的损失函数用法说明
- 2021-07-12 pytorch中的matmul与mm,bmm区别说明
你 发表评论:
欢迎- 2952℃JS彻底弄懂GMT和UTC时区
- 2824℃JS使用canvas技术模仿echarts柱状图
- 2649℃JS装饰者模式和TypeScript装饰器
- 2574℃JS ES6展开运算符的几个妙用
- 2543℃vue的ssr服务端渲染示例详解
- 2365℃jquery插件实现图片对比
- 2320℃微信小程序视频弹幕位置随机
- 1817℃docker安装redis设置密码并连接的操作
- 0℃未命名
- 开源分类
- 最近发表
-
- (1)python+selenium第一个自动化脚本:实现打开百度首页并搜索selenium
- Discuz!教程之启用HTTPS后解决各处遗留http://网址问题
- 网站如何识别 你是 selenium爬虫?那我们怎么解决(反反爬)
- 旋转拖动验证码解决方案
- python关键词排名_python实现百度关键词排名查询
- Unity3D研究院之通过ipa或apk获取游戏所使用的unity和Xcode版本
- Unity3D研究院编辑器之脚本生成Preset Libraries(十四)
- 手把手教你Charles抓包工具使用
- python开发的程序内存越来越大_遇到个python进程占用内存太多的问题 | 数据,更懂人心...
- Selenium Python3 请求头配置
- 开源网标签
本文暂时没有评论,来添加一个吧(●'◡'●)