lucene+MongoDB+IKAnalyzer 做全文搜索
package sample3; import java.io.File; import org.apache.lucene.analysis.Analyzer; import org.apache.lucene.document.Document; import org.apa…
IKAnalyzer对扩展字典的数字和字母分词问题
IKAnalyzer中支持字典扩展如->region_dict.dic :黄浦区普陀区长宁区徐汇区对于这样包含有中文的字典可以正常的进行切词但是地址字典就会有问题,如:a…
IKAnalyzer何时支持Lucene4.x
目前我已经用了lucene4.0,虽然是alpha版,但是也是未来的第一步。但是IKAnalyzer不支持lucene4,如果作者在,是否有计划对4支持?何时支持?…
得到文章的关键词后根据它对文章划分类别
使用分词器得到一篇文章的词,例如对一句话“IKAnalyzer是一个开源的,基于java语言开发的轻量级的中文分词工具包。从2006年12月推出1.0版开始,IKAna…
使用search-framework 创建索引成功,搜索单个汉字没有结果
@红薯 你好,想跟你请教个问题: search-framework 使用SearchHelper.makeQuery("body","中",1.0f); 进行查询的时候结果为0,但是我在 开源中国查询…
请教一个Solr+IKAnalyzer的搜索问题
使用solr+IKAnalyzer搭建的全文搜索平台,测试中发现一个问题如下: 1 将“北京建立孔子学院”进行索引 2 搜索“北京建立”或“建立孔子学院”等连在…
基于solr4.1 IK分词 同义词等过滤器的配置
基于solr4.1的配置方面 由于4.1的版本, “在Solr4.0发布以后,官方取消了BaseTokenizerFactory接口,而直接使用Lucene Analyzer标准接口。因此IK分词…
IKanalyzer对中文词不能停用
请问下IKAnalyzer哪个版本支持中文停用词,之前我测试过IKAnalyzer2012版本,我把IKAnalyzer.cfg.xml及stopword.dic都放在src下,最后显示:加载扩展…
elasticsearch ik 扩展分词加载 但无效果
@linliangyi 你好,想跟你请教个问题:目前在elasticsearch 中使用 ik 分词器, 想添加自定义分词扩展,扩展分典是从main.dic拷贝过去的,只是在最后…
关于 基于solr4.1 IK分词 同义词过滤器的配置 问题
@java_大猫 你好,想跟你请教个问题: http://www.oschina.net/question/65178_92394 我也遇到了和你一样的问题,请问一下你是怎么解决的?…