huggingface-transformers

huggingface-transformers

文章 0 浏览 0

如何衡量预训练的 HuggingFace 语言模型的性能?

我正在使用 Trainer 预训练 GPT2LMHeadModel,如下所示: training_args = TrainingArguments( output_dir=str(project_root / 'models/bn-gpt2/'), o…

恰似旧人归 2025-01-13 20:36:40 0 0

如何在Julia中导入NLP模型(facebook bart Large mnli模型)?

我想寻求帮助在 Julia 中导入 zero-shot-classification 的 bart-large-mnli 模型? 模型参考:https://metatext.io/models/facebook-bart-large -mnl…

半夏半凉 2025-01-13 15:14:12 0 0

将新词汇标记添加到模型中并将其保存到下游模型

新令牌的平均初始化是否正确?另外,我应该如何保存新的标记生成器(向其添加新标记后)以在下游模型中使用它? 我通过添加新标记并取平均值来训练 ML…

趴在窗边数星星i 2025-01-13 14:49:04 0 0

与 DeepSpeed 相同的训练时间(尽管批量大小增加)

问题: 嗨!我正在使用 huggingface(不带 Trainer API)和使用 deepspeed 来微调 Electra 模型。应用 Deepspeed 后,我可以增加训练模型的批量大小(…

╰つ倒转 2025-01-13 09:53:49 0 0

类型错误:forward() 得到了意外的关键字参数“return_dict” BERT 分类 HUGGIFACE 与调优

我堆满了这个模型,每天我的代码都会出现错误!无论如何,我正在尝试实现一个 Bert 分类器来区分 2 个序列类(二进制分类),并使用 AX 超参数调整。 …

始终不够爱げ你 2025-01-13 07:42:59 0 0

CUDA:运行时错误:CUDA 内存不足 - BERT sagemaker

我一直在尝试使用 AWS Sagemaker 训练 BertSequenceForClassification 模型。我正在使用拥抱脸部估计器。但我不断收到错误:RuntimeError:CUDA 内存…

岁吢 2025-01-13 01:19:36 0 0

在数据帧列上应用预先训练的 facebook/bart-large-cnn 在 python 中进行文本摘要

我正在与 Huggingface Transformers(Summarizers)合作,并对它有了一些见解。我正在使用 facebook/bart-large-cnn 模型来执行文本摘要,并且正在运…

花伊自在美 2025-01-13 00:31:05 0 0

在 keras 模型中使用 `sentence-transformers`

我想在更大的 Keras 模型中使用来自句子转换器的模型。 这是完整的示例: import tensorflow as tf from transformers import AutoTokenizer, TFAutoM…

述情 2025-01-12 21:34:49 0 0

Hugginface Dataloader BERT ValueError:解压值太多(预期为 2),使用 Pytorch 调整 AX 超参数

从一周开始我就遇到了这个错误,我尝试了一切,所以事实是我没有深入理解正在发生的事情(我是 pytorch 实现的新手)。无论如何,我正在尝试实现一个 …

几味少女 2025-01-12 18:45:36 0 0

单语言 Transformers 模型可以用于 NLP 任务中的其他语言吗?

我需要微调 Tr 语言的 Sentence Transformer 模型。我意识到一些预先训练的模型在不同语言中给出了相似的结果。 那么,我们可以用它来微调 ST 预训练…

假情假意假温柔 2025-01-12 17:12:40 0 0

多头注意力中的多个头实际上会导致更多的参数或不同的输出吗?

我正在尝试理解变形金刚。虽然我理解编码器-解码器结构的概念以及自我注意背后的想法,但我所坚持的是“多头注意层”的“多头部分”。 看看这个解释 h…

时光沙漏 2025-01-12 14:23:25 0 0

无法在 python3 中运行 Huggingface 转换器 | ssl.SSLCertVerificationError

我正在尝试在我公司的笔记本电脑上运行 Huggingface 中的 Transformer 包,以在 python 3.8.2 中生成文本。 代码如下: from transformers import pip…

你是我的挚爱i 2025-01-12 04:04:38 0 0

如何通过 model.generate 输出每个 token 的概率列表?

现在我有: model = GPTNeoForCausalLM.from_pretrained(model_name) tokenizer = GPT2Tokenizer.from_pretrained(model_name) input_ids = tokenizer…

天冷不及心凉 2025-01-12 01:30:31 0 0

生成器 `max_length` 的 query() 成功

目标:在 Hugging Face Transformers 生成器查询中设置 min_length 和 max_length。 我已传递 50, 200 作为这些参数。然而,我的输出长度要高得多....…

神魇的王 2025-01-11 20:59:56 0 0

如何在 tf2.keras 中进行微调时冻结 BERT 的某些层

我正在尝试在数据集上微调“基于 bert-uncased”的文本分类任务。这是我下载模型的方式: import tensorflow as tf from transformers import TFAutoM…

数理化全能战士 2025-01-11 11:33:21 0 0
更多

推荐作者

Promise

文章 0 评论 0

qq_lbRlsh

文章 0 评论 0

待"谢繁草

文章 0 评论 0

yy2010hell

文章 0 评论 0

漫无边际

文章 0 评论 0

傲娇萝莉攻

文章 0 评论 0

    我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
    原文