是否可以获取大量文件? tar/gzip 并即时传输它们?
我有大量文件需要备份,问题是没有足够的磁盘空间来创建它们的 tar 文件,然后将其上传到异地。有没有一种方法可以使用 python、php 或 perl 来打包一组文件并即时上传它们,而无需在磁盘上创建 tar 文件?它们也太大而无法存储在内存中。
I have a large number of files which I need to backup, problem is there isn't enough disk space to create a tar file of them and then upload it offsite. Is there a way of using python, php or perl to tar up a set of files and upload them on-the-fly without making a tar file on disk? They are also way too large to store in memory.
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论
评论(2)
我总是通过 ssh 执行此操作:
这样,文件最终会在另一台计算机上全部解压。或者
将它们放入另一台计算机上的存档中,这就是您真正想要的。
I always do this just via ssh:
This way, the files end up all unpacked on the other machine. Alternatively
Puts them in an archive on the other machine, which is what you actually wanted.
您可以通过 ssh 通过管道传输 tar 的输出:
You can pipe the output of tar over ssh: