我正在上一门课程PyTorch。我想知道为什么我们需要单独告诉torch.utils.data.DataLoader输出它在什么设备上运行。如果模型已经打开,CUDA为什么它不相应地自动更改输入?这种模式对我来说似乎很有趣:model.to(device)for ii, (inputs, labels) in enumerate(trainloader): # Move input and label tensors to the GPU inputs, labels = inputs.to(device), labels.to(device)是否有一个用例,我想让模型在 GPU 上运行,但我的输入是在 CPU 模式下,反之亦然?
添加回答
举报
0/150
提交
取消