Pytorch模型转换成GPU模型出现错误
因为目前还没有PyTorch标签,所以就用了TensorFlow了,麻烦盛誉值高的大大加上这个标签好吗,Thanks♪(・ω・)ノ
我最近准备使用VGG模型来训练数据,然后想用GPU,但是在将VGG模型转化成VGG.cuda()时老是报错,我刚开始以为是数据集的问题,但是后来我啥都没弄直接先将VGG转化成.cuda()形式,但也还是报错,代码和报错情况如下:
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论
评论(1)
提示是out of memory,是不是显存不够呢?我试了一下,pytorch 0.3.1 + torchvision 0.2.0加载VGG16要700多MB显存:
可以先试一下小一点的模型或者看看是不是cuda有问题。