用句子变压器模型可以作为摘要任务输入的令牌中的最大文本长度是多少
大多数BERT模型的最大输入长度为512代币。当我将句子变压器多qa-distilbert-COS-V1模型与bert-suttractive-summarizer用于摘要任务。该模型接受了具有792令牌的文本,摘要包含了原始文本的最后一行。通常,在512代币之后的文本被模型截断,而不考虑用于NLP任务。该文档还表示512个令牌的最大序列长度。模型如何能够读取512个令牌?
Most Bert models take a maximum input length of 512 tokens. When I used sentence transformer multi-qa-distilbert-cos-v1 model with bert-extractive-summarizer for summarisation task. A text with 792 tokens was accepted by the model and the summary contained the last line from the original text. Usually the text after 512 tokens is truncated by the model and not considered for nlp task. The documentation also states the max sequence length of 512 tokens. How is the model able to read beyond 512 tokens?
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论