jieba英文空格分词问题
1.对于关键词存在空格或者特殊符号的情况下,jieba无法分出该词
2.在github上找到了一个解决方案,修改jieba源码
__init__.py
免费分享,造损免责。
打开默认词典(根目录)或自定义词典,把所有用来间隔词频和词性的空格间隔符改成@@
(选用@@是因为一般关键词里遇到这个分隔符的几率比较小吧)
继续,打开jieba根目录下init.py
搜索
re_han_default = re.compile("([\u4E00-\u9FD5a-zA-Z0-9+#&\._]+)", re.U)
改成
re_han_default = re.compile("(.+)", re.U)
搜索
re_userdict = re.compile('^(.+?)( [0-9]+)?( [a-z]+)?$', re.U)
改成
re_userdict = re.compile('^(.+?)(\u0040\u0040[0-9]+)?(\u0040\u0040[a-z]+)?$', re.U)
搜索
word, freq = line.split(' ')[:2]
改成
word, freq = line.split('\u0040\u0040')[:2]
补充:若用的全模式继续改。
搜索
re_han_cut_all = re.compile("([\u4E00-\u9FD5]+)", re.U)
改成
re_han_cut_all = re.compile("(.+)", re.U)
但是这样导致分词的结果出现大量的emoji表情或者不需要的 类似 =,()的符号,
3.期望输出
我 只想让jieba能够识别自定义词中存在 空格的中英文关键词 或者以 -连接的关键词并且去除其他特殊字符比如emoji等表情符 该怎么修改呢?
string = 'my dog is a happy dog'
jieba.add_word('happy dog')
jieba.cut(my dog is a happy dog)
outputs: ['my','dog','is','a','happy','dog']
期望输出: ['my','dog','is','a','happy dog']
对正则表达式实在头大,希望有经验的大佬能告诉我有什么办法...
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论
评论(2)
只需要往相应的正则表达式添加空格即可,如
示例
英文的话还是可以考虑
nltk
。你可以试一下MWETokenizer
jibe
如果有解决方案望补充。