不同压缩算法的权衡
不同压缩算法的权衡是什么?
目的是备份、传输和备份。 恢复。 我不在乎流行程度,只要unix有足够成熟的工具就可以了。 我关心
- 时间
- cpu
- 内存
- 压缩级别
我正在考虑的算法是
- zip
- bzip
- gzip
- tar
- 其他吗?
What are the tradeoffs of the different compression algorithms?
The purpose is backup, transfer & restore. I don't care about popularity, as long as a mature enough tool exists for unix. I care about
- time
- cpu
- memory
- compression level
the algorithms I am considering are
- zip
- bzip
- gzip
- tar
- others?
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论
评论(4)
Tar 本身并不是一种压缩算法。
当压缩/解压时间是最重要的问题时,您可以使用 zip/gzip。
当您需要更好的压缩率时,可以使用 bzip。
当需要更大的压缩率但 CPU 时间更长时,您可以使用 LZMA。
看看这里。
Tar is not a compression algorithm per se.
You may use zip/gzip when time for compression/decompression is the most important issue.
You may use bzip when you need a better compression rate.
You may use LZMA when even bigger compression rate needed, but CPU time bigger.
Have a look here.
最好的方法是查看压缩基准网站:
Maximumcompression
压缩率
The best way is to look at compression benchmark sites:
Maximumcompression
Compressionratings
它通常取决于您的输入数据,但我从未发现任何比 7zip (http://www.7-zip.org" rel="nofollow noreferrer">http:// /www.7-zip.org)。
It usually depends on your input data but I've never found anything that gives me better general compression than 7zip (http://www.7-zip.org).
为这些情况创建一个简单的测试平台将非常简单。
编写一个脚本,依次对代表您希望压缩的文件的一组文件使用每个文件,并测量所达到的时间/CPU/内存使用/压缩比。
重新运行它们大量的统计次数,您就会得到答案。
It would be very simple to create a simple testbed for those cases.
Write a script that uses each in turn on a set of files that is representative of those you wish to comporess, and measure the time/cpu/memory usage/compression ratio acheived.
Rerun them a statistically significant number of times, and you'll have your answer.