java 爬虫 发送请求

HttpGet httpGet = new HttpGet(url);
httpGet.setHeader("User-Agent", "Mozilla/5.0(Windows NT 6.1;Win64; x64; rv:50.0) Gecko/20100101 Firefox/50.0");

我想问一下,这种httpGet 每次请求一个url 都需要new 一下?那我的这个setheader 每次也需要?这是不是太麻烦 很多重合代码?因为一个网站可能很多url来回跳转

阅读 1.3k
1 个回答

可以看看文档嘛。

初始化的时候可以给定请求默认的header:

HttpClientBuilder.create().setDefaultHeaders()
撰写回答
你尚未登录,登录后可以
  • 和开发者交流问题的细节
  • 关注并接收问题和回答的更新提醒
  • 参与内容的编辑和改进,让解决方法与时俱进
推荐问题