有没有办法在拥抱面部训练师的拥抱面孔中打电话给宏观精神?
目前,我正在使用拥抱面模型在Feft-2015数据集上进行测试。我想将我的结果与已完成的结果进行比较。 我从数据集库中检查了 list_metrics 方法,但我没…
叛军:端到端语言的关系提取
我正在尝试运行以下代码: from transformers import pipeline triplet_extractor = pipeline('text2text-generation', model='Babelscape/rebel-larg…
用句子变压器模型可以作为摘要任务输入的令牌中的最大文本长度是多少
大多数BERT模型的最大输入长度为512代币。当我将句子变压器多qa-distilbert-COS-V1模型与bert-suttractive-summarizer用于摘要任务。该模型接受了具有…
拥抱面 - 为什么T5模型缩短句子?
我想训练模型进行咒语校正。我培训了两种型号Allegro/plt5-base,其中包括波兰语句子和带英文句子的Google/t5-v1_1基础。不幸的是,我不知道出于什么…
无法导入transformers.models.auto.tokenization_auto MacOS
我正在尝试使用Jupyter Notebook从变形金刚库中加载汽车模型,自动源。 from transformers import AutoModel, AutoTokenizer 这会导致以下错误(提供…
Huggingface Bert模型的预训练层是否冻结了?
我使用以下来自HuggingFace的分类模型: model = AutoModelForSequenceClassification.from_pretrained("dbmdz/bert-base-german-cased", num_labels=…
Bert-base-uncunder:TypeError:元组索引必须是整数或切片,而不是元组
我想查看给我给模型的输入文本的嵌入,然后将其馈送到Bert的其余部分。为此,我将模型划分为两个顺序模型,但是我一定做错了,因为REST_OF_BERT模型会…
Blenderbot Finetuning
我一直在尝试微调拥抱面的对话模型:Blendebot。我尝试了在官方拥抱面孔网站上给出的常规方法,该网站要求我们使用Trainer.Train()方法进行操作。我…
resize_token_embeddings在具有不同嵌入尺寸的pretrain模型上
我想询问改变训练有素模型的嵌入尺寸的方法。 我有一个训练有素的模型型号/BERT-PRETRAIN-1-Step-5000.pkl 。 现在,我将新的令牌 [tra] 添加到令牌,…
如何自动将Pytorch模型转换为拥抱面模型?
假设我创建了一个pytorch模型: class Model(nn.Module): def __init__(self): super(Model, self).__init__() self.model_1_encoder = RobertaModel.…
如何使用HF中的TF模型构建用于BERT和变体的蒸馏器类
我正在尝试使用拥抱脸的TF模型来建立一个“蒸馏”类,以进行知识蒸馏。我从此试图对其进行修改。 我构建了一个看起来像这样的数据集: DatasetDict({ …
拥抱面Tfrobertamodel详细摘要
from transformers import RobertaTokenizer, TFRobertaModel import tensorflow as tf tokenizer = RobertaTokenizer.from_pretrained("roberta-base…
类似FUNSD的数据集上的Finetuning Layoutlm-自我索引不超出范围
我正在尝试 huggingface 变形金刚 Microsoft/Layoutlmv2-base-uncased 通过 automodelfortokencencecience 在我的自定义数据集上类似于funsd(pre fun…
每次都不启动模型,在无需启动模型的情况下,使用gpu内部的模型
每次我将变压器模型加载到GPU中时,都需要大约60秒。 因此,我想在不每次启动的情况下通过烧瓶请求访问GPU中的模型。 因此,我尝试将模型保存在 BaseM…
没有tokenizer中的encode_plus方法,如何制作功能矩阵
我正在使用低资源语言,需要制作分类器。 我使用Tokenizers库来训练以下令牌:WLV,BPE,UNI,WPC。我将每个结果保存到JSON文件中。 我使用 tokenizer…