java 爬虫 发送请求
HttpGet httpGet = new HttpGet(url);
httpGet.setHeader("User-Agent", "Mozilla/5.0(Windows NT 6.1;Win64; x64; rv:50.0) Gecko/20100101 Firefox/50.0");
我想问一下,这种httpGet 每次请求一个url 都需要new 一下?那我的这个setheader 每次也需要?这是不是太麻烦 很多重合代码?因为一个网站可能很多url来回跳转
如果你对这篇内容有疑问,欢迎到本站社区发帖提问 参与讨论,获取更多帮助,或者扫码二维码加入 Web 技术交流群。
绑定邮箱获取回复消息
由于您还没有绑定你的真实邮箱,如果其他用户或者作者回复了您的评论,将不能在第一时间通知您!
发布评论
评论(1)
可以看看文档嘛。
初始化的时候可以给定请求默认的header: