Perl 网络教程

发布于 2024-11-07 17:07:29 字数 1536 浏览 0 评论 0原文

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。

评论(3

寻找一个思念的角度 2024-11-14 17:07:30

我过去使用过 WWW-Mechanize 来实现基本的网络爬行功能,包括表单提交等。

有一些非常好的示例

I've used WWW-Mechanize in the past to achieve the basic web crawling functionality, including form submission and the like.

There are some pretty good examples.

他是夢罘是命 2024-11-14 17:07:30

除了 Perl 之外,您还需要的工具:

  1. HTTP Live Headers(Firefox 扩展)或 eqv。将 Javascript 请求逆向工程为原始 GET / POST,以便您可以使用 Mechanize 或 LWP 等来模仿。
  2. 正如其他发帖者已经提到的,一个好的无头浏览器是 WWW::Mechanize 模块。
  3. 我建议花一些时间学习 HTML::TreeBuilder &特别是 HTML::TreeBuilder::XPathHTML::Query。当您想要从 HTML 文档获取实际数据时,后两个将变得非常方便。
  4. HTML::TableExtract 也是一个很好的模块,可以在需要时从 HTML 表中提取数据。

基本上,使用以上所有内容将使您能够抓取大多数网站。

享受爬行的乐趣(-:

Tools you will need besides Perl:

  1. HTTP Live Headers (Firefox extension) or eqv. to reverse engineer Javascript requests to primitive GET / POST so you can mimic that with Mechanize or LWP, etc.
  2. As already mentioned by other posters, a good headless-browser is WWW::Mechanize module.
  3. I would suggest spending some time learning HTML::TreeBuilder & especially HTML::TreeBuilder::XPath and HTML::Query. the last two will become very handy when you will want to get actual data from HTML documents.
  4. HTML::TableExtract is also a nice module to extract data from HTML tables when needed.

basically, using all of the above will give you the ability to crawl most sites.

Have fun crawling (-:

~没有更多了~
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文