将 GPTJ-6b 微调转换为 HuggingFace 格式时的内存使用情况

发布于 2025-01-12 18:12:37 字数 498 浏览 0 评论 0原文

按照本教程使用 TPU 来微调 GPTJ 效果很好。 https://github.com/kingoflolz/mesh-transformer- jax/blob/master/howto_finetune.md

为什么使用 to_hf_weights.py 转换为 Huggingface 格式的步骤会出现问题内存为 256MB - 即使在应用瘦身之后?

我提交的问题在这里: https://github.com/kingoflolz/mesh-transformer-jax/issues/ 209

Following this tutorial using TPUs to fine tune GPTJ has worked well.
https://github.com/kingoflolz/mesh-transformer-jax/blob/master/howto_finetune.md

Why would the step to transform to huggingface format using to_hf_weights.py have an issue with memory at 256MB - even after slimming has been applied?

The issue I filed is here:
https://github.com/kingoflolz/mesh-transformer-jax/issues/209

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。

评论(1

入怼 2025-01-19 18:12:37

通过在具有大量内存的标准机器(非 TPU)上运行此步骤来解决。

Resolved by running this step on a standard machine (not TPU) with lots of mem.

~没有更多了~
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文