huggingface-transformers

huggingface-transformers

文章 0 浏览 1

使用我自己的图像在拥抱脸部视觉伯特上使用的演示笔记本的麻烦

我使用自己的图像与此。我想上传自己的图像,而不是使用预定义的URL链接。例如,在此笔记本电脑中,我们使用以下代码: URL = "https://vqa.cloudcv.o…

倒数 2025-02-09 20:55:50 2 0

拥抱面变压器填充vs pad_to_max_length

我正在使用 pad_to_to_max_length = true 运行代码,一切正常。只有我警告以下警告: 未来沃宁: pad_to_max_length 参数已弃用和 将在以后的版本中删…

她说她爱他 2025-02-09 18:35:44 1 0

如何训练ML模型将文本转换为代码

寻找一个有效的示例COLAB/笔记本,以显示能够转换“短文本”的文本生成模型的培训或微调 - > “编程代码文本”。 我正在学习这个主题,并希望通过…

萌面超妹 2025-02-09 18:30:14 2 0

from_config和在huggingface中的差异

num_labels = 3 if task.startswith("mnli") else 1 if task=="stsb" else 2 preconfig = DistilBertConfig(n_layers=6) model1 = AutoModelForSequen…

不爱素颜 2025-02-09 03:13:06 3 0

将Gensim与现有嵌入式表一起使用

我已经使用HuggingFace Transformers库的微调变压器模型生成了一堆单词嵌入式。 现在,想进行一些快速评估,结果是否有任何好处。我偶然发现了Gensim…

七禾 2025-02-09 03:06:07 2 0

尝试使用Electra而不是BERT模型运行NLP模型

我想运行 wl-coref 带有电气模型的模型而不是bert模型。但是,我通过Electra模型收到一条错误消息,并且找不到有关如何修复它的HuggingFace文档中的提…

梦与时光遇 2025-02-09 00:19:43 2 0

评估bert模型参数。requires_grad

我对BERT模型的测试集评估有疑问。在评估部分期间,param.requires_grad假定为真或错误?如果我在培训期间是否进行了完整的微调,则不愿意进行。我的…

落日海湾 2025-02-08 21:10:03 2 0

在训练拥抱脸型变压器时获得钥匙架

我通常会遵循本教程( https://huggingface.co/docs/transformers/training#: training#:text = xt =; Text =; Text =; %20to,一个%20英寸20驱动%…

走走停停 2025-02-08 20:26:14 1 0

huggingface;工作?

我目前的培训师设置为: training_args = TrainingArguments( output_dir=f"./results_{model_checkpoint}", evaluation_strategy="epoch", learning_…

寂寞笑我太脆弱 2025-02-08 09:46:02 2 0

如何微调蒙版语言模型?

我正在尝试按照 huggingface教程 (随机掩盖一组单词并预测它们)。但是他们假设数据集在他们的系统中(可以从数据集中加载 import load_dataset; loa…

原谅我要高飞 2025-02-08 00:07:47 2 0

伯特损失功能如何工作?

我对Bert LM的跨凝性工作方式感到困惑。要计算损失函数,我们需要面具的真实标签。但是我们没有真实标签的向量表示,预测是向量表示。那么如何计算损…

玉环 2025-02-07 19:35:23 2 0

attributeError:模块' torch.distributed'没有属性' is_initialized'在pytorch == 1.11.x中

每当我们为训练量的对象创建对象时, from transformers import Trainer, TrainingArguments batch_size = 64 logging_steps = len(emotions_encoded[…

吻安 2025-02-07 17:09:31 3 0

调谐后,无法将longformer模型加载到张量

我在Google CoLab上微调了tensorflow 2.8.2的长形模型“> 1 ]。我正在尝试对文本进行二进制分类,我有一个数据集,该数据集具有标记为相关(1)和无关…

百善笑为先 2025-02-07 15:13:08 1 0

使用Visualbert掩盖图像和语言建模

我正在编码此 features = torch.mean(output_dict.get("roi_features"), axis=1).reshape(1,1,2048) 它被馈送给Visualbert以进行训练预读模型,从而为…

给我一枪 2025-02-07 13:18:01 1 0

attributeError:can can get属性' geluactivation' on lt;模块'变形金刚。来自' c:\ ...变形金刚\ activations.py'>

我使用拥抱面模型训练了Parsbert模型,并将模型保存为“权重”。 pt'在Google合作中。我在合作中加载了权重,它运行良好,但是当我使用Pycharm加载模…

子栖 2025-02-07 05:06:18 2 0
更多

推荐作者

alipaysp_snBf0MSZIv

文章 0 评论 0

梦断已成空

文章 0 评论 0

瞎闹

文章 0 评论 0

寄意

文章 0 评论 0

似梦非梦

文章 0 评论 0

    我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
    原文