使用我自己的图像在拥抱脸部视觉伯特上使用的演示笔记本的麻烦
我使用自己的图像与此。我想上传自己的图像,而不是使用预定义的URL链接。例如,在此笔记本电脑中,我们使用以下代码: URL = "https://vqa.cloudcv.o…
拥抱面变压器填充vs pad_to_max_length
我正在使用 pad_to_to_max_length = true 运行代码,一切正常。只有我警告以下警告: 未来沃宁: pad_to_max_length 参数已弃用和 将在以后的版本中删…
from_config和在huggingface中的差异
num_labels = 3 if task.startswith("mnli") else 1 if task=="stsb" else 2 preconfig = DistilBertConfig(n_layers=6) model1 = AutoModelForSequen…
将Gensim与现有嵌入式表一起使用
我已经使用HuggingFace Transformers库的微调变压器模型生成了一堆单词嵌入式。 现在,想进行一些快速评估,结果是否有任何好处。我偶然发现了Gensim…
尝试使用Electra而不是BERT模型运行NLP模型
我想运行 wl-coref 带有电气模型的模型而不是bert模型。但是,我通过Electra模型收到一条错误消息,并且找不到有关如何修复它的HuggingFace文档中的提…
评估bert模型参数。requires_grad
我对BERT模型的测试集评估有疑问。在评估部分期间,param.requires_grad假定为真或错误?如果我在培训期间是否进行了完整的微调,则不愿意进行。我的…
在训练拥抱脸型变压器时获得钥匙架
我通常会遵循本教程( https://huggingface.co/docs/transformers/training#: training#:text = xt =; Text =; Text =; %20to,一个%20英寸20驱动%…
huggingface;工作?
我目前的培训师设置为: training_args = TrainingArguments( output_dir=f"./results_{model_checkpoint}", evaluation_strategy="epoch", learning_…
如何微调蒙版语言模型?
我正在尝试按照 huggingface教程 (随机掩盖一组单词并预测它们)。但是他们假设数据集在他们的系统中(可以从数据集中加载 import load_dataset; loa…
attributeError:模块' torch.distributed'没有属性' is_initialized'在pytorch == 1.11.x中
每当我们为训练量的对象创建对象时, from transformers import Trainer, TrainingArguments batch_size = 64 logging_steps = len(emotions_encoded[…
调谐后,无法将longformer模型加载到张量
我在Google CoLab上微调了tensorflow 2.8.2的长形模型“> 1 ]。我正在尝试对文本进行二进制分类,我有一个数据集,该数据集具有标记为相关(1)和无关…
使用Visualbert掩盖图像和语言建模
我正在编码此 features = torch.mean(output_dict.get("roi_features"), axis=1).reshape(1,1,2048) 它被馈送给Visualbert以进行训练预读模型,从而为…
attributeError:can can get属性' geluactivation' on lt;模块'变形金刚。来自' c:\ ...变形金刚\ activations.py'>
我使用拥抱面模型训练了Parsbert模型,并将模型保存为“权重”。 pt'在Google合作中。我在合作中加载了权重,它运行良好,但是当我使用Pycharm加载模…