关于参数在CPU和GPU的问题
作为一个新手,我问的东西可能有点基础,但是确实没有在网上找到解决方案,请各位前辈包涵。
https://tangshusen.me/Dive-in...
https://tangshusen.me/Dive-in...
我在上面这个网址学习pytorch,跟着运行demo的时候出现了如下的报错预计。一行代码都没有改,却出现了这样的问题。
RuntimeError: Tensor for 'out' is on CPU, Tensor for argument #1 'self' is on CPU, but expected them to be on GPU (while checking arguments for addmm)
网上有些解决方法,但是目前知识不够,确实没法看懂。
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论
评论(1)
tensor可以相互运算的前提是,它们处在同一个设备中,所以如果你无法确定tensor的位置的话,可以在运算之前统一移动到cpu上(
tensor = tensor.cpu()
)或统一移动到gpu上(tensor = tensor.to(torch.device("cuda:0"))
),再进行运算。