将 GPTJ-6b 微调转换为 HuggingFace 格式时的内存使用情况
按照本教程使用 TPU 来微调 GPTJ 效果很好。 https://github.com/kingoflolz/mesh-transformer- jax/blob/master/howto_finetune.md
为什么使用 to_hf_weights.py 转换为 Huggingface 格式的步骤会出现问题内存为 256MB - 即使在应用瘦身之后?
我提交的问题在这里: https://github.com/kingoflolz/mesh-transformer-jax/issues/ 209
Following this tutorial using TPUs to fine tune GPTJ has worked well.
https://github.com/kingoflolz/mesh-transformer-jax/blob/master/howto_finetune.md
Why would the step to transform to huggingface format using to_hf_weights.py have an issue with memory at 256MB - even after slimming has been applied?
The issue I filed is here:
https://github.com/kingoflolz/mesh-transformer-jax/issues/209
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论
评论(1)
通过在具有大量内存的标准机器(非 TPU)上运行此步骤来解决。
Resolved by running this step on a standard machine (not TPU) with lots of mem.