文档聚类基础知识
所以,我对这些概念思考了一段时间,我的理解是非常基本的。信息检索似乎是一个很少被广泛讨论的话题......
我的问题源于文档聚类的过程。假设我从一组仅包含有趣单词的文档开始。这里的第一步是什么?解析每个文档中的单词并创建一个巨大的“词袋”类型模型?然后我是否继续为每个文档创建字数向量?如何使用 K 均值聚类之类的方法来比较这些文档?
So, I've been mulling over these concepts for some time, and my understanding is very basic. Information retrieval seems to be a topic seldom covered in the wild...
My questions stem from the process of clustering documents. Let's say I start off with a collection of documents containing only interesting words. What is the first step here? Parse the words from each document and create a giant 'bag-of-words' type model? Do I then proceed to create vectors of word counts for each document? How do I compare these documents using something like the K-means clustering?
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论
评论(1)
首先尝试 Tf-idf。
如果你读过 Python,请看
“使用 MiniBatchKmeans 对文本文档进行聚类”
在 scikit-learn 中:
“展示如何使用 scikit-learn 进行聚类的示例
使用词袋方法按主题排列文档”。
然后源代码中的
feature_extraction/text.py
有非常好的类。Try Tf-idf for starters.
If you read Python, look at
"Clustering text documents using MiniBatchKmeans"
in scikit-learn:
"an example showing how the scikit-learn can be used to cluster
documents by topics using a bag-of-words approach".
Then
feature_extraction/text.py
in the source has very nice classes.