如何在 gettext 驱动的多语言网站上实现搜索?
我正在使用 gettext 设置多语言。由于其他语言的所有文本都在编译的 .mo 文件中。我该如何攻击网站的搜索功能?任何帮助或指导意见将不胜感激。请注意,我之前没有编写过搜索引擎......
I'm setting up a multi-language using gettext. Since all text from other languages are in the compiled .mo files. How should I attack the search function of the site? Any help or point of direction would be appreciated. Note, I have not coded a search enigine before…
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论
评论(1)
据我了解,您希望提供对存储在 .mo 文件中的信息的搜索;键值对的文本文件。
问题在于将特定 .mo 中的 kv 对映射到特定 URI。如果您能做到这一点,您可以运行一个脚本来解析 .mo 文件,并将短语与相关 URI(或其他资源标识符)一起存储在某种数据存储中,例如 Apache Solr 或 MySQL 数据库(带有全文索引列)。
另一种选择是使用爬虫程序按关键字和语言对站点中的所有页面进行抓取和索引。以下是开源爬虫的列表:
http://en.wikipedia.org/wiki /Web_crawler#Open-source_crawlers
祝一切顺利。
As I understand, you would like to provide search for information that is stored in .mo files; text files of key-value pairs.
The problem will be in mapping a k-v pair in a particular .mo to a particular URI. If you can do this, you can run a script that parses the .mo files, and stores the phrases along with related URI (or other resource identifier) in some kind of data store, such as Apache Solr or a MySQL detabase (with a FULLTEXT-indexed column).
Another option is to use a crawler to slurp and index by keyword and language all the pages in your site. Here's a list of open-source crawlers:
http://en.wikipedia.org/wiki/Web_crawler#Open-source_crawlers
All the best.