将所选的维基百科文章复制到自己的维基中?

发布于 2024-07-22 04:41:54 字数 120 浏览 3 评论 0原文

有没有办法批量复制某些维基百科文章(大约 10,000 篇)到我自己的 mediawiki 网站?

编辑: 如何在不覆盖类似名称的文章/页面的情况下执行此操作? 我也不打算使用非法手段(爬虫等)

is there a way to batch copy certain wikipedia articles(about 10,000) to my own mediawiki site?

EDIT:
How do I do this without overwriting similarly named articles/pages?
Also I don't plan on using illegal means (crawlers etc)

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。

评论(3

萌吟 2024-07-29 04:41:54

如果您想要获取一组特定的文章,那么您可以使用“导出”页面 (http://en.wikipedia.org/wiki/Special:Export) 获取所涉及页面的 XML 转储; 您可以一次导出多个页面,但您可能希望间隔开您的请求。

您可以使用 Special:Importmaintenance/ 中的导入脚本之一将 XML 转储导入 MediaWiki。

If you're looking to obtain a specific set of articles, then you may be able to use the Export page (http://en.wikipedia.org/wiki/Special:Export) to obtain an XML dump of the pages involved; you can export multiple pages at once, although you may wish to space out your requests.

You can import the XML dumps into MediaWiki using Special:Import or one of the import scripts in maintenance/.

白衬杉格子梦 2024-07-29 04:41:54

维基百科数据库可供下载

The Wikipedia database is available for download

~没有更多了~
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文