使用Python & 将大文件发布到usenet nntplib:大文件如何分割?
我对 uBackup 很感兴趣,它使用 Usenet 来备份大文件。
我认为使用 python 来实现这一点是个好主意,但我在理解发布大文件的正确协议时遇到了问题。
我知道您需要压缩文件并最好将它们分成更小的部分。 但是,当您实际将文件发布到 usenet 时,它会对它们进行日元编码并将它们分成更小的部分(因为每篇文章的大小都有限)。
但是大文件实际上是如何以这种方式分割成更小的部分的呢?
I'm intrigued by uBackup, using Usenet for backing up large files.
I thought it would be a good idea to use python for this, but I'm having problems understanding the correct protocol for posting large files.
I know you need to compress your files and best split them up in smaller parts.
But when you actually post the file to usenet it yencodes them AND splits them up in even smaller parts (because each article can only be a limited size).
But how are large files actually split into smaller parts this way?
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论
评论(1)
抱歉造成混乱。 WikiHow 上的 uBackup 文章在步骤 2 中解释了如何拆分文件。
它使用 7-zip.org 来执行此操作。
在此图中,您可以看到文件被分割成 50 Mb 的块。
http://www.wikihow.com/Image:2T- 7-zip.org-parameters.jpg
在第 4 步中,您可以看到文件是使用“Camelsystem Powerpost”上传的
该程序还进行编码。
http://en.wikipedia.org/wiki/File:Usenet_Binaries_Upload_process.PNG
分割和编码是由不同的程序(手动)完成的。
下载时,您必须使用相同的过程来合并分割的文件。
例如。如果您使用 rar 或 zip 或其他方法/程序,那么您必须使用相同的方法来组合它们。
也许这篇文章也会对您有所帮助:
如何高效分割大文件
Sorry for the confusion. The uBackup article on WikiHow explains in step 2 how to split files.
It uses 7-zip.org to do so.
In this image you can see that the file(s) are split into 50 Mb chunks.
http://www.wikihow.com/Image:2T-7-zip.org-parameters.jpg
In step 4 you can see that the files are uploaded with 'Camelsystem Powerpost'
That program also does the encoding.
http://en.wikipedia.org/wiki/File:Usenet_Binaries_Upload_process.PNG
The split and encoding is (manually) done by to different programs.
When downloading, you have to use the same process to combine the split files.
Eg. if you used rar or zip or another methode/program, then you have to use the same methode to combine them.
Maybe this article will help you also:
How to split large files efficiently