如何回应Kaggle中的CLI提示?
我正在使用Kaggle生成具有GPT-2的诗歌样本。我的笔记本使用来自并使用 nshepperd的gpt-2模型。 这一切都可以很好地与我的笔记本生成无条件样品。 !pyt…
使用Mode.generate()从变形金刚 - typeError:forward()获得意外关键字参数' return_dict&return_dict'
我试图通过Transformers库中的FineTuned GPT2HeadWithValueModel进行推断。我正在使用generation_utils.py的model.generate()方法, 我正在使用此函…
_forward_unimplemented() 得到了意外的关键字参数“input_ids”;
我正在使用 HuggingFace Trainer 类训练模型。(GPT2 文本分类)以下代码做得不错: def preprocess_function(examples): return tokenizer(examples[…
从 GptNeo 模型生成 10000 个句子会导致内存不足错误
我正在做一些工作,我想从 GptNeo 模型生成 10000 个句子。我有一个大小为 40GB 的 GPU,并且正在 GPU 中运行模型,但每次代码都会耗尽内存。我可以生…
微调 GPT2 时 CUDA 内存不足
运行时错误:CUDA 内存不足。尝试分配 144.00 MiB(GPU 0;11.17 GiB 总容量;10.49 GiB 已分配;13.81 MiB 空闲;PyTorch 总共保留 10.56 GiB)分配…
我可以在colab中清理GPU显存吗
我正在尝试使用 aitextgen 在数据集上微调 774M gpt 2。不幸的是,无论我做什么,训练都会失败,因为只有 80 MB 的 vram 可用。如何在不重新启动运行…
如何从 GPTNeo 中生成的文本中删除输入?
我正在编写一个程序来生成文本...... 我需要从生成的文本中删除输入。我该怎么做? 代码: input_ids = tokenizer(context, return_tensors="pt").inp…
如何保存变压器 gpt2 的检查点以继续训练?
我正在重新训练 GPT2 语言模型,并关注此博客: https://towardsdatascience.com/train-gpt-2-in-your-own-language-fc6ad4d60171 在这里,他们训练了…
- 共 1 页
- 1