仅获取维基百科摘要

发布于 2024-10-20 17:19:18 字数 1539 浏览 1 评论 0原文

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。

评论(4

小兔几 2024-10-27 17:19:18

不一定有与门户对应的类别,尽管您可以尝试查找与门户同名的类别、门户页面所在的类别(使用 API,您可以使用 prop= 进行查询类别),或从门户页面链接的类别页面(prop=links&plnamespace=14)。

这些语言中的任何一种都可以。您还可以选择 perl、java、C#、objective-c 或任何其他语言。不同质量的框架列表可以在此处此处

API 当然可以使用 prop=revisions 为您提供内容。您甚至可以使用 rvsection=0 仅查询“lead”部分。 API 还可以使用 list=categorymembers 为您提供类别中的页面列表,并使用 prop=categories 为您提供页面的类别列表。

500页应该不是问题。如果您想要大部分文章,您需要考虑使用 数据库转储 代替。

有关详细信息,请参阅API 文档

There isn't necessarily a category corresponding to a portal, although you could try looking for a category with the same name as the portal, the categories the portal page is in (using the API, you can query this with prop=categories), or the category pages linked from the portal page (prop=links&plnamespace=14).

Any of those languages would work. You could also pick perl, java, C#, objective-c, or just about any other language. A list of frameworks of varying quality can be found here or here.

The API can certainly give you content, using prop=revisions. You can even query just the "lead" section with rvsection=0. The API can also give you the list of pages in a category with list=categorymembers and the list of categories for a page using prop=categories.

500 pages shouldn't be an issue. If you were to be wanting a significant proportion of the articles, you'd want to look into using a database dump instead.

See the API documentation for details.

太阳哥哥 2024-10-27 17:19:18

Python,抓取页面很有趣,为此我建议通过 lxml.html 使用 xpath。

Python, have fun with scraping the page, for this I would suggest xpath via lxml.html.

人间☆小暴躁 2024-10-27 17:19:18

虽然您正在寻找基于网络爬虫的解决方案,但我建议您看看DBPedia。本质上它是 RDF 格式的维基百科。您可以下载整个数据库转储,对其运行 SPARQL 查询,或者直接指向资源并启动通过浏览参考文献来探索。
例如,可以通过以下 URL 访问计算机科学类别:

http://dbpedia.org/page/Category:Computer_science

Although you are looking for a web crawler based solution, let me suggest you to take a look at DBPedia. Essentially it's Wikipedia in RDF format. You can download entire database dumps, run SPARQL queries against it, or directly point to a resource and start exploring from there by walking the references.
For example, the Computer science category can be accessed at this URL:

http://dbpedia.org/page/Category:Computer_science

甜点 2024-10-27 17:19:18

我会建议使用 python 来快速开发。
你必须有两个模块。会爬取所有可能的类别
内部类别(基本上是类别树),其他可以
从详细信息页面(即普通维基页面)提取信息
维基百科支持特殊:在 URL 参数中导出,这将
允许您获取 XML 响应。使用python的xpath
模块将为您提供帮助。

I will suggest python for fast development.
You have to have two modules. One will crawl all the possible categories
Inside category(basically a category tree), other which can
Extract info from the details page(I.e normal wiki page)
Wikipedia supports special:export in the URL param which will
allow you to get the XML response. Use python's xpath
Module will help you.

~没有更多了~
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文