在训练Bert变体时,获得IndexError:index超出自我范围
xlm_r_model(input_ids = X_train_batch_input_ids , attention_mask = X_train_batch_attention_mask , return_dict = False ) 训练 面对以下错误:…
培训新的自动驱动器拥抱脸
获取此错误:attributeError:'gpt2tokenizer'对象没有 属性'train_new_from_iterator' 与拥抱面部文档非常相似。我更改了输入,就是它(不应该影响…
MultiHeadections在版本之间提供截然不同的值(Pytorch/Tensorflow
我正在尝试重新创建用pytorch编写的变压器并使其张力。一切都进展顺利,直到每种版本的多项式开始提供极大的输出。这两种方法均为本文“您需要的关注…
春季集成 - 用@transformer符号注释的两个方法的两个变压器
我有一种用@transform符号注释的方法。但是,在其他情况下,需要将此变压器用于不同的输入和输出通道。让我们认为我有这样的代码: @Transformer(inpu…
Bert 预测形状不等于 num_samples
我有一个文本分类,我正在尝试使用bert进行。以下是我正在使用的代码。模型培训代码(下)效果很好,但我面临的预测部分面临着 from transformers imp…
如何知道一个词是否属于变压器模型?
我使用模型 roberta 和 flaubert ,我使用python库 ston_transformer 。 我使用余弦分数来计算相似性,但对某些话来说效果不佳。 这些单词似乎是模型…
PyTorch Temporal Fusion Transformer 预测输出长度
我已经在一些训练数据上训练了时间融合变压器,并希望对一些看不见的数据进行预测。为此,我使用 pytorch_forecasting TimeSeriesDataSet 数据结构 te…
运行时错误:形状“[-1, 784]”对于大小为 614400 的输入无效
我正在练习实现“自动编码变量贝叶斯(VAE)”论文的代码。 但是,错误“RuntimeError:shape [16, 1, 28, 28] 对于大小为 37632 的输入无效”尚未解决…
BertForMaskedLM 的正确返回值是多少?
我正在使用 Huggingface BertForMaskedLM。 对于一个句子,我从 BertForMaskedLM 获得 3 维返回。 例如(P,N,V),这里我理解N是句子的长度,V是Ber…
如何根据输出张量从pytorch模型中删除预测头?
我正在开发一个 ViT(Vision Transformer)相关项目,一些低级定义位于 timm 库的深处,我无法更改。低级库定义涉及线性分类预测头,它不是我的网络的…
层“模型”的输入0与层不兼容:预期形状=(无, 250, 3),在经过训练的变压器模型中发现形状=(无, 3)
我有一个用tensorflow 2.7.0 和 python 3.7 训练的 keras transformer 模型,输入形状:(None, 250, 3) 和形状为:(250, 3)(不是图像)的二维数组输…