Pytorch模型转换成GPU模型出现错误

发布于 2022-09-06 22:04:41 字数 333 浏览 16 评论 0

因为目前还没有PyTorch标签,所以就用了TensorFlow了,麻烦盛誉值高的大大加上这个标签好吗,Thanks♪(・ω・)ノ

我最近准备使用VGG模型来训练数据,然后想用GPU,但是在将VGG模型转化成VGG.cuda()时老是报错,我刚开始以为是数据集的问题,但是后来我啥都没弄直接先将VGG转化成.cuda()形式,但也还是报错,代码和报错情况如下:

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。

评论(1

月下伊人醉 2022-09-13 22:04:41

提示是out of memory,是不是显存不够呢?我试了一下,pytorch 0.3.1 + torchvision 0.2.0加载VGG16要700多MB显存:

clipboard.png

可以先试一下小一点的模型或者看看是不是cuda有问题。

~没有更多了~
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文