我正在写一个爬虫,怎么通过网页内容误别出是否为中文网页?
因定制内容较多,暂时无发现现有爬虫框架满足要求,所以需要自己写(用redis做队列)。
我的问题是在爬虫得到一个网页之后,怎么识别出这个网页是否为中文网页?
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
因定制内容较多,暂时无发现现有爬虫框架满足要求,所以需要自己写(用redis做队列)。
我的问题是在爬虫得到一个网页之后,怎么识别出这个网页是否为中文网页?
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
接受
或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
发布评论
评论(6)
用 Google Chrome 的识别算法吧,支持 HTML,有 Python 绑定。
过了N久,今天总算有时间实验一下了。下面是我综合@依云 和@Syeerzy 的解决方案,谢谢大家的回答。
输出是
首先取响应头里的编码,
如果是几种中文编码之一,则认为中文网页,
如果不是中文编码, 也不是几种unicode方案之一, 则不是中文.
否则再在<head>标签里找 charset ,
如果有并且为几种中文编码之一, 则是中文
如果不是中文编码, 也不是几种unicode方案之一, 则不是中文.
否则对body的内容(如果考虑性能问题,可以不对整个body,只对前N个字节)用正则洗标签
过滤所有ASCII码字符, 剩余部分按字取内码,
如果考虑性能问题其实取第一个字符就可以了,
如果性能不重要,可以多采样几个(防止一个页面有中文日文等各种文字混合)
判断采到的字符的内码是否位于中文unicode区域.
(PS: 如果性能非常不重要, 只是要代码简单, 那么做法可以: 正则 [^\x00-\xff] 这样可以取到第一个不是ASCII的字符, 判断这个字符是否是中文字符就可以了)
检查网页编码,看看有没有对应编码的中文字符。
正则取出中文字符,看看在整个页面上的占比
我想我的博客是一个会让大多数检测“失效”的站点:http://tangzx.qiniudn.com/
因为我的 html 里完全没有中文字符,html 全是 ascii 字符,ascii 字符外的内容,都用 html 的 entity(
&#entity_number;
或者ntity_number_hex
)表示了。比如源码里的“Koans | 呓语
”其实就是“Koans | 呓语
”。我这么做的好处是不用再指定语言,全部 utf-8 解决。只要对方装了相应的字体,就能显示出来。