需要自动网站文件夹备份系统吗? 有什么建议吗?

发布于 2024-07-22 13:49:49 字数 201 浏览 13 评论 0原文

大家好,是否有任何备份软件可以定期备份在线网站文件夹并将其离线存储在本地系统上。 需要一些强大的东西,如果有免费的东西可以完成这项工作,那就太好了:)


感谢链接 - 我有 ftp 访问权限,它是我的网站,它是一个带有用户上传的文档共享网站,我想维护一个定期备份网站上不时上传的文件。 只是想自动化这个过程。 我的本地系统是基于 Windows 的。

Hi guys is there any backup software that can take periodic backups of online website folders and store them offline on a local system. Need something robust and would be nice if theres something free that can do the job :)


Thanks for the links - I have ftp access and its my website and its a bit of a documents sharing website with user uploads and I would like to maintain a backup of teh files uploaded from time to time on the website on a periodic basis. Just want to automate this process. My local system is windows based though.

如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。

扫码二维码加入Web技术交流群

发布评论

需要 登录 才能够评论, 你可以免费 注册 一个本站的账号。

评论(3

荭秂 2024-07-29 13:49:49

如果您所指的网站将由您通过浏览器(而不是作为该网站的管理员)访问,您应该查看 WGet。 而且,如果您需要从 Windows 系统使用 WGet,请查看 Cygwin

If you are referring to a website that will be accessed by you from your browser (rather than as the administrator of the site) you should check out WGet. And, if you need to use WGet from a Windows system, checkout Cygwin

世态炎凉 2024-07-29 13:49:49

如果您有权访问网络服务器,则通过电子邮件或 ftp 发送存档的 cronjob 就可以完成这项工作。

If you have access to the webserver, a cronjob which emails or ftps out the archive would do the job.

箜明 2024-07-29 13:49:49

如果您没有该站点的 shell 访问权限,则可以使用 wget:

#!/bin/bash
export BCKDIR=`date -u +"%Y%m%dT%H%M%SZ"`
wget -m -np -P $BCKDIR http://www.example.com/path/to/dir

wget 选项:

  • -m - 镜像所有内容,点击链接
  • -np - 不访问父目录(避免下载整个站点)
  • -P - 存储下面的文件$BCKDIR

如果您有 shell 访问权限,则可以使用 rsync。 一种方法是在 screen(1) 会话中运行此循环,并使用 ssh-agent 自动登录:

#!/bin/bash
while :; do
    export BCKDIR=`date -u +"%Y%m%dT%H%M%SZ"`
    rsync -az user@hostname:/path/to/dir $BCKDIR
    sleep 86400 # Sleep 24 hours
done

不确定您正在使用什么操作系统,但这应该在 *NIX 下运行良好。 对于 MS Windows,有 Cygwin。

If you don't have shell access at the site, you can use wget:

#!/bin/bash
export BCKDIR=`date -u +"%Y%m%dT%H%M%SZ"`
wget -m -np -P $BCKDIR http://www.example.com/path/to/dir

wget options:

  • -m - Mirror everything, follow links
  • -np - Don't access parent directories (avoids downloading the whole site)
  • -P - Store files below $BCKDIR

If you have shell access, you can use rsync. One way to do it, is to have this loop running in a screen(1) session with automatic login using ssh-agent:

#!/bin/bash
while :; do
    export BCKDIR=`date -u +"%Y%m%dT%H%M%SZ"`
    rsync -az user@hostname:/path/to/dir $BCKDIR
    sleep 86400 # Sleep 24 hours
done

Not sure what OS you're using, but this should run fine under *NIX. And for MS Windows, there's Cygwin.

~没有更多了~
我们使用 Cookies 和其他技术来定制您的体验包括您的登录状态等。通过阅读我们的 隐私政策 了解更多相关信息。 单击 接受 或继续使用网站,即表示您同意使用 Cookies 和您的相关数据。
原文