带有Pytorch Lightning问题的Electra序列分类与' pooler_output'
我正在处理一个句子分类任务,每个句子都附有多个二进制标签。我正在使用Electra和Pytorch Lightning来完成这项工作,但是我遇到了一个问题。当我运行…
Importerror:无法导入名称' lazymodule'从' transformers.utils'
我正在尝试运行文本摘要“ T5基本”模型。我第一次运行它时用来工作的代码,但是在安装/重新安装了一些软件包后,它不再可行。谁能告诉我如何解决此问…
HuggingFace Pipeline:UserWarning:``grouped_entities''已弃用,并将在版本v5.0.0中删除。如何改善此警告?
我正在使用以下代码 !pip install datasets transformers[sentencepiece] from transformers import pipeline ner = pipeline("ner", grouped_entitie…
使用预训练模型 T5 进行问答
我想使用预先训练的T5模型 httpps://huggingface.co/docs/transformers/ model_doc/t5 在知道我的输入将是段落,问题和输出是true或false是问题的答案…
在 Sagemaker 和 Huggingface 中训练已经训练好的模型,无需重新初始化
假设我已经在一些训练数据上成功训练了一个模型 10 个时期。然后我如何访问相同的模型并再训练 10 个 epoch? 在文档中,它建议“您需要指定通过超参…
翻译模型的慢速预测速度Opus-Mt-en-Ro
我正在使用模型 Helsinki-NLP/opus-mt-en-ro 来自拥抱的脸。 为了生成输出,我使用以下代码: inputs = tokenizer( questions, max_length=max_input_…
有没有更快的方法来获得 BERT 中给定子词嵌入的词嵌入
使用 bert.tokenizer 我可以获取句子中单词的子词 id 和单词跨度,例如,给定句子“这是一个例子”,我得到 [“th”,“##is”的编码文本嵌入, "an",…
使用 num_labels 1 vs 2 进行 Huggingface 变形金刚分类
问题1) 这个问题的答案表明,对于二元分类问题,我可以使用num_labels 为 1(正或负)或 2(正和负)。有关于哪种设置更好的指导吗?看来,如果我们…
拥抱面变压器conda安装问题
默认情况下,conda安装变压器2.x但是,默认情况下,pip安装4.x,这是我想要的,但是通过conda。 如果我通过从Conda-Forge指定最新的分发文件来安装… …
ValueError:无法创建张量,您可能应该使用' padding = true'
我正在尝试评估 facebook/hubert-base-ls9601 在私人数据集上进行微调后,拥抱面前训练的模型。 我正在使用 facebook/hubert-base-ls9601 预先训练的…
使用Mode.generate()从变形金刚 - typeError:forward()获得意外关键字参数' return_dict&return_dict'
我试图通过Transformers库中的FineTuned GPT2HeadWithValueModel进行推断。我正在使用generation_utils.py的model.generate()方法, 我正在使用此函…
通过拥抱面识别模型面对SSL错误
我面对下面的问题,同时加载了Huggingface预验证的模型。 HTTPSConnectionPool(host='huggingface.co', port=443): Max retries exceeded with url: /…
在 eletra 模型上添加图层时使用拥抱面部训练器进行微调
我试图通过拥抱的面部训练器模块来微调自己的模型。直到仅训练ElectraforquestionAnswering,才有问题,但是我尝试在模型上添加其他层并尝试了相同的…
_forward_unimplemented() 得到了意外的关键字参数“input_ids”;
我正在使用 HuggingFace Trainer 类训练模型。(GPT2 文本分类)以下代码做得不错: def preprocess_function(examples): return tokenizer(examples[…