请教下,Linux下载工具怎么写?
大家好,我想写一个Linux下的下载漫画网站的漫画的工具。
准备用C/GTK写。
不过遇到了2个问题……
1、网页的分析的问题,譬如,http://manhua.178.com/haizeiwang/ ,海贼王,怎么分析这个网页?将所有话数的链接提取出来?以前没做过这东西。求指教。
2、下载问题,抓取图片的地址后,就自动单线程下载。——想问下这里主要用到什么知识和函数。
百度google了一些代码,参考了精华帖,不是很满意。
希望高手能指点下。如果有类似的源代码可以作为参考就更好了。
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论
评论(4)
wget
谢谢。
wget,源代码下了下来,代码量好大……如果有更加小巧点就好了。——不过,突然想到用Shell调用……
不知道,GTK能不能插入Shell代码?
另外,html的解析库,准备尝试LibXML2和Streaming HTML parser。
了解HTTP协议。 curl + wget
这个用python或perl来做感觉会更方便。自己就用python写了个在ktxp极影下载漫画的脚本。其实下载不单要分析html页,还要解析嵌入其中的javascript,感觉解析javascript比较麻烦。