将所选的维基百科文章复制到自己的维基中?
有没有办法批量复制某些维基百科文章(大约 10,000 篇)到我自己的 mediawiki 网站?
编辑: 如何在不覆盖类似名称的文章/页面的情况下执行此操作? 我也不打算使用非法手段(爬虫等)
is there a way to batch copy certain wikipedia articles(about 10,000) to my own mediawiki site?
EDIT:
How do I do this without overwriting similarly named articles/pages?
Also I don't plan on using illegal means (crawlers etc)
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论
评论(3)
如果您想要获取一组特定的文章,那么您可以使用“导出”页面 (http://en.wikipedia.org/wiki/Special:Export) 获取所涉及页面的 XML 转储; 您可以一次导出多个页面,但您可能希望间隔开您的请求。
您可以使用
Special:Import
或maintenance/
中的导入脚本之一将 XML 转储导入 MediaWiki。If you're looking to obtain a specific set of articles, then you may be able to use the Export page (http://en.wikipedia.org/wiki/Special:Export) to obtain an XML dump of the pages involved; you can export multiple pages at once, although you may wish to space out your requests.
You can import the XML dumps into MediaWiki using
Special:Import
or one of the import scripts inmaintenance/
.维基百科数据库可供下载
The Wikipedia database is available for download
http://www.wikihow.com/Import-XML-Dumps -to-Your-MediaWiki-Wiki
我希望这对您有帮助。
http://www.wikihow.com/Import-XML-Dumps-to-Your-MediaWiki-Wiki
This helps you, I wish.