基于http的多线程文件下载器(C/C++)
有个问题比较纠结,如果写个基于http协议的多线程文件下载器该用第三方库呢?还是自己
构造http请求报文呢?如果用第三方库的话,比如libcurl,是不是代码写起来不太灵活?
以上是最近纠结的问题,还请高手踊跃发言,谢谢大家!
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论
评论(7)
这个就比较灵活了,怎么做都行,只有断的时候保存了下载到哪里就行
libcurl 不错,很多公司都在用的,灵活度也不错,可以考虑下
回复
断点信息该保存到哪了呢?我看wget工具在下载过程中也没有产生保存断点的文件,它的断点应该是在要下载的文件里面吧?如果让wget暂停,只有要下载的文件生成,没有断点文件。
可以先生成目标大小的文件,从这个文件头开始下载文件,将已经下载了多少的信息存到文件尾
libcurl我记得本身就支持断点续传
引用来自“烽火云烟”的评论
libcurl已经非常灵活了,接口设计的非常细的,完全可以满足需求。
libcurl已经非常灵活了,接口设计的非常细的,完全可以满足需求。