用句子变压器模型可以作为摘要任务输入的令牌中的最大文本长度是多少

发布于 2025-02-13 11:28:06 字数 195 浏览 2 评论 0原文

大多数BERT模型的最大输入长度为512代币。当我将句子变压器多qa-distilbert-COS-V1模型与bert-suttractive-summarizer用于摘要任务。该模型接受了具有792令牌的文本,摘要包含了原始文本的最后一行。通常,在512代币之后的文本被模型截断,而不考虑用于NLP任务。该文档还表示512个令牌的最大序列长度。模型如何能够读取512个令牌?

Most Bert models take a maximum input length of 512 tokens. When I used sentence transformer multi-qa-distilbert-cos-v1 model with bert-extractive-summarizer for summarisation task. A text with 792 tokens was accepted by the model and the summary contained the last line from the original text. Usually the text after 512 tokens is truncated by the model and not considered for nlp task. The documentation also states the max sequence length of 512 tokens. How is the model able to read beyond 512 tokens?

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。
列表为空,暂无数据
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文