无法导入名称“组件”;来自“spacy” (/usr/local/lib/python3.7/dist-packages/spacy/__init__.py)
我进行了以下安装: pip install git+https://github.com/boudinfl/pke.git 现在我收到此错误: ImportError Traceback (most recent call last) in (…
如何在 Tensorflow 中从 Huggingface 修改基本 ViT 架构
我是拥抱脸部的新手,希望采用与 ViT 中相同的 Transformer 架构来对我的领域进行图像分类。 因此,我需要更改输入形状和完成的增强。 来自huggingfac…
如何使用更少的内存在谷歌机器规格上快速训练MLM模型XLM Roberta Large
我正在根据 Google 机器规格微调来自 XLM Roberta Large 的屏蔽语言模型。 我做了几个实验,但很奇怪没有看到什么结果。 "a2-highgpu-4g" ,accelerato…
使用自定义数据训练模型时出现 Huggingface 错误
我正在使用以下笔记本来训练 distilbert : https://github.com/ krishnaik06/Huggingfacetransformer/blob/main/Custom_Sentiment_Analysis.ipynb 我…
属性错误:“T5Config”对象没有属性“适配器”;
如何解决这个错误?我已经创建了 T5-base 模型的 .pkl 对象并尝试执行它,但突然收到此错误消息。我想知道一点,尝试用谷歌搜索但没有得到任何原因为…
Huggingface 模型的 OSError
我正在尝试使用 Huggingface 模型(CamelBERT),但是加载分词器时出现错误: 代码: from transformers import AutoTokenizer, AutoModelForMaskedLM…
如何使用 wandb 和 Huggingface 转换器记录额外的单变量
我正在使用 Huggingface 的 Transformers Trainer 对象,我真的很喜欢它对 wandb 的支持。 对于我的用例,我对 Trainer 进行了子类化,除了默认记录的…
相同的输入、相同的模型、相同的权重但得到不同的结果
我正在微调句子 bert 来完成一些任务,例如在 Tensorflow 中计算句子余弦相似度。我使用以下代码设置了一个编码器,例如 encoder1: from sentence_tr…
如何衡量预训练的 HuggingFace 语言模型的性能?
我正在使用 Trainer 预训练 GPT2LMHeadModel,如下所示: training_args = TrainingArguments( output_dir=str(project_root / 'models/bn-gpt2/'), o…
如何在Julia中导入NLP模型(facebook bart Large mnli模型)?
我想寻求帮助在 Julia 中导入 zero-shot-classification 的 bart-large-mnli 模型? 模型参考:https://metatext.io/models/facebook-bart-large -mnl…
与 DeepSpeed 相同的训练时间(尽管批量大小增加)
问题: 嗨!我正在使用 huggingface(不带 Trainer API)和使用 deepspeed 来微调 Electra 模型。应用 Deepspeed 后,我可以增加训练模型的批量大小(…
类型错误:forward() 得到了意外的关键字参数“return_dict” BERT 分类 HUGGIFACE 与调优
我堆满了这个模型,每天我的代码都会出现错误!无论如何,我正在尝试实现一个 Bert 分类器来区分 2 个序列类(二进制分类),并使用 AX 超参数调整。 …
CUDA:运行时错误:CUDA 内存不足 - BERT sagemaker
我一直在尝试使用 AWS Sagemaker 训练 BertSequenceForClassification 模型。我正在使用拥抱脸部估计器。但我不断收到错误:RuntimeError:CUDA 内存…