更改Python中的目录并通过scrapy Spider提取.html文件名

发布于 2024-12-27 22:00:25 字数 229 浏览 0 评论 0原文

我编写了一个蜘蛛,它会爬行名为 fid 的文件夹,并提取所有子文件夹的名称作为链接。现在的问题是,每个子文件夹里面都有一个 html 页面,我想提取所有这些 html 文件的名称并添加到当前的“start_urls”,这样我就可以从所有这些 html 中抓取所需的信息页。我已经尝试过:

os.listdir()
glob.glob()

但这些都不起作用。请帮我解决这个问题。

I have written a spider that crawls through a folder named fid and extracts the names of all the sub-folders as a link. Now the problem is that each of these sub-folders have an html page inside them and i want to extract the names of all these html files and add to the current "start_urls", so that i can scrape out required information from all these html pages. I have tried:

os.listdir()
glob.glob()

but none of these worked. Please help me with this.

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。

评论(1

北城半夏 2025-01-03 22:00:25

一种 stdlib 方法是将 os.walk 与 fnmatch 结合使用:

import fnmatch
import os

start_urls = []

for root, dirnames, filenames in os.walk('/start/dir/'):
    for filename in fnmatch.filter(filenames, '*.html'):
        start_urls.append(os.path.join(root, filename))

One stdlib approach is using os.walk in combination with fnmatch:

import fnmatch
import os

start_urls = []

for root, dirnames, filenames in os.walk('/start/dir/'):
    for filename in fnmatch.filter(filenames, '*.html'):
        start_urls.append(os.path.join(root, filename))
~没有更多了~
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文