为了账号安全,请及时绑定邮箱和手机立即绑定

为什么我们需要 image.to('CUDA') 当我们有 model.to('CUDA')

为什么我们需要 image.to('CUDA') 当我们有 model.to('CUDA')

扬帆大鱼 2021-09-11 18:00:18
我正在上一门课程PyTorch。我想知道为什么我们需要单独告诉torch.utils.data.DataLoader输出它在什么设备上运行。如果模型已经打开,CUDA为什么它不相应地自动更改输入?这种模式对我来说似乎很有趣:model.to(device)for ii, (inputs, labels) in enumerate(trainloader):    # Move input and label tensors to the GPU    inputs, labels = inputs.to(device), labels.to(device)是否有一个用例,我想让模型在 GPU 上运行,但我的输入是在 CPU 模式下,反之亦然?
查看完整描述

1 回答

  • 1 回答
  • 0 关注
  • 248 浏览
慕课专栏
更多

添加回答

举报

0/150
提交
取消
微信客服

购课补贴
联系客服咨询优惠详情

帮助反馈 APP下载

慕课网APP
您的移动学习伙伴

公众号

扫描二维码
关注慕课网微信公众号