有谁知道全文断词器中是否有使用的德语单词列表?

发布于 2024-07-10 10:21:05 字数 116 浏览 8 评论 0原文

SQL Server 全文搜索使用特定于语言的分词器。

对于德语,这用于分解/分割单词,包括复合词。 然而,似乎并非所有已知的复合词都包含在分词器中。 我想知道是否有分词器所知道的单词列表。

SQL Server Full Text Search uses language specific Word Breakers.

For the German language this is used to break/split words including compound words. However, it appears not all known compound words are included in the Word Breaker. I would like to know if a list is available of the words the Word Breaker does know about.

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。

评论(2

泅渡 2024-07-17 10:21:05

在 sql server 2008 中,这是有效的...我在这里放置的 language_id 是针对德语的。
我想看到同样的事情,但西班牙语。

SELECT * FROM sys.fulltext_system_stopwords
WHERE language_id = 1031

编辑:在sql server 2005中,单词存储在此处“$SQL_Server_Install_Path\Microsoft SQL Server\MSSQL.1\MSSQL\FTDATA\”,如果编辑干扰词文件,则必须重新填充全文。

in sql server 2008 this works... the language_id i put here is for german.
I wanted to see the same thing but for spanish.

SELECT * FROM sys.fulltext_system_stopwords
WHERE language_id = 1031

edit: in sql server 2005 the words are stored here "$SQL_Server_Install_Path\Microsoft SQL Server\MSSQL.1\MSSQL\FTDATA\", If you edit the noise-word file, you have to repopulate the full-text.

初雪 2024-07-17 10:21:05

答案是没有答案。 根据微软的说法,这些单词不会被存储——它们使用一个公式来“打破”它们。 这永远不会100%准确,所以我只能接受这个事实。

The answer is there is no answer. According to Microsoft , the words are not stored - they use a formula to "break" them. This will never be 100% accurate so i will just have to live with this fact.

~没有更多了~
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文