java 爬虫 发送请求

HttpGet httpGet = new HttpGet(url);
httpGet.setHeader("User-Agent", "Mozilla/5.0(Windows NT 6.1;Win64; x64; rv:50.0) Gecko/20100101 Firefox/50.0");

我想问一下,这种httpGet 每次请求一个url 都需要new 一下?那我的这个setheader 每次也需要?这是不是太麻烦 很多重合代码?因为一个网站可能很多url来回跳转

阅读 1.3k
1 个回答

可以看看文档嘛。

初始化的时候可以给定请求默认的header:

HttpClientBuilder.create().setDefaultHeaders()
推荐问题