检查站点中是否有我的站点文件

发布于 2024-10-30 23:49:02 字数 306 浏览 1 评论 0原文

有没有一个程序可以抓取指定的网站,如果有其他网站的引用就会吐出来?我有图像、视频文件、pdf 等。我需要将其交给另一位开发人员来完成到他们新服务器的移植。

我刚刚将旧网站转移给另一个人,他们仍在使用我的文件。我不知道所有文件都是 100%,我想确定我需要向他们提供哪些文件。如果有像 linkchecker 这样可以爬行的东西就好了,如果有对网站根目录(例如 sub.domain.com)的引用,那么它会吐出有关它的信息(哪个页面,网址是什么)。

我现在不想阻止该网站使用这些文件,所以就不再这样做了。

我使用的是 Mac,所以任何终端程序都可以。

Is there a program that crawls a specified website and will spit out if there is a reference to another website? I have images,video files,pdf's,etc. that I need to give to another developer to finish the port over to their new server.

I just transferred an old site to another person and they are still using my files. I don't know 100% were all the files are and I want to be sure what files I need to give to them. It would be nice to have something like linkchecker that can crawl and if there is a reference to a website root (ex. sub.domain.com) then it will spit out information about it (what page, what is the url).

I don't want to block the site at this point from using the files so that is out.

I'm on a Mac so any terminal program would be just fine.

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。

评论(2

为你拒绝所有暧昧 2024-11-06 23:49:02

您可以尝试 Sitesucker,它可用于下载网站上使用的所有文件(以及任何链接取决于设置)。它是 OSX(和 iPhone)捐赠软件,因此可能正是您正在寻找的东西。我相信它会创建一个下载文件的日志文件,因此如果您只想将 URL 而不是实际文件发送给您的同事,您可以发送该日志文件。

You could try Sitesucker which can be used to download all the files used on a site (and any it links to depending on the settings). It's OSX (and iPhone) donation-ware so that might be just what you're looking for. I believe it creates a log file of the files it downloads so you could send that if you just want to send the URL's to your colleague instead of the actual files.

—━☆沉默づ 2024-11-06 23:49:02

您可以查看wget。它可以递归地(-r 选项)下载网站并将其内容保存到您的硬盘上。它通常(即如果没有另外指定)将所有内容下载到类似于主机的目录中。

但请注意不要递归下载整个互联网;)因此请务必指定正确的 --domains--exclude-domains 选项。

You could check out wget. It can recursively (-r option) download a website and save its content to your harddisk. It usually (i.e. if not specified otherwise) downloads everything into directories named like the host.

But be careful not to download the whole internet recursively ;) So be sure to specify correct --domains or --exclude-domains options.

~没有更多了~
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文