拥抱面 - 为什么T5模型缩短句子?
我想训练模型进行咒语校正。我培训了两种型号Allegro/plt5-base,其中包括波兰语句子和带英文句子的Google/t5-v1_1基础。不幸的是,我不知道出于什么…
sentiment140数据集在从huggingface上传时,不包含标签2 IE中性句子
我想使用sentiment140数据集进行情感分析任务,因为我看到它通常包含以下标签: pos and neg句子 2用于中性句子2 我在网站上查看数据集时发现的: htt…
将新列添加到字典中的拥抱表数据集中
我有一个标题为“ tokenized_datasets” 的数据集,如下: 我想添加一个名为 ['labels'] 的列,它是一个副本 ['input_ids'] 在功能中。我知道这篇文章…
没有tokenizer中的encode_plus方法,如何制作功能矩阵
我正在使用低资源语言,需要制作分类器。 我使用Tokenizers库来训练以下令牌:WLV,BPE,UNI,WPC。我将每个结果保存到JSON文件中。 我使用 tokenizer…
在拥抱表中的令牌化后无法获得骆驼壳令牌
我试图通过在拥抱面中加载词汇来使文本象征。 vocab_path = '....' ## have a local vocab path tokenizer = BertWordPieceTokenizer(os.path.join(vo…
尝试使用Electra而不是BERT模型运行NLP模型
我想运行 wl-coref 带有电气模型的模型而不是bert模型。但是,我通过Electra模型收到一条错误消息,并且找不到有关如何修复它的HuggingFace文档中的提…
在训练拥抱脸型变压器时获得钥匙架
我通常会遵循本教程( https://huggingface.co/docs/transformers/training#: training#:text = xt =; Text =; Text =; %20to,一个%20英寸20驱动%…
huggingface;工作?
我目前的培训师设置为: training_args = TrainingArguments( output_dir=f"./results_{model_checkpoint}", evaluation_strategy="epoch", learning_…
是否可以在HF/SageMaker上仅CPU机器上执行本地开发人员?
我正在尝试在 sagemaker.huggingface.huggingface 上进行本地开发,然后再搬到SageMaker进行实际培训。我设置了 hf_estimator = huggingface(entry_p…
令牌仪的词汇应该是什么?
我正在尝试使用HuggingFace的令牌器。但是,我没有词汇。 from tokenizers import BertWordPieceTokenizer , CharBPETokenizer, ByteLevelBPETokenize…
在Allennlp之外添加预定的模型到Allennlp演示
我正在研究模型的解释性。我想使用Allenai演示来检查其他模型上的显着图和对抗性攻击方法(在此演示中实现)。我使用教程在这里>并在我的本地机器上运…
如何从HuggingFace安装库?例如GPT NEO 125m
我对如何在您自己的桌面或服务器上安装HuggingFace的库感到困惑。安装库有多复杂?任何地方都有逐步的说明吗?我找到了一些文章,但是他们假设了一定…
如何在拥抱面推理上隐藏某些标签?
我目前正在代币分类模型中使用自定义标签,并将该模型推到了集线器上。 我使用如下所示的标签: label_list = [“NORM”, “COMMA”, “PERIOD”, “Q…