ikanalyzer 自定义分词没有效果
代码如下:
我想把“e本通”分成一个词,使用了loadExtendWords方法来自定义分词,但是实际分出来的词还是"e","本","通", 便是"你呢“却可以分成一个词,不知道有没有知道是什么问题。
ArrayList<String> dictWords = new ArrayList<String>();
dictWords.add("沃尔沃cx60");dictWords.add("你呢");
dictWords.add("e本通");
org.wltea.analyzer.dic.Dictionary.loadExtendWords(dictWords);
String content = "沃尔沃cx60 我们来了,你呢e本通";
InputStreamReader input = new InputStreamReader(new ByteArrayInputStream(content.getBytes()));
IKSegmentation segmentation = new IKSegmentation(input, true);
Lexeme lex = segmentation.next();
while (lex != null) {
String word = lex.getLexemeText();
lex = segmentation.next();
System.out.println("W:"+word);
}
}
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论
评论(1)