当前位置:   article > 正文

Java实现一个ip池,让你的蜘蛛畅行无阻_java ip池

java ip池

  玩爬虫的时候,如果访问的太频繁的话,很容易被封ip,一物降一物,有反爬,当然就有反反爬╰( ̄▽ ̄)╭

为了防止ip被封,就可以使用ip代理,让代理服务器帮你完成这个请求,再将请求结果返回给你,是不是很像平时我们用的梯子 ( ‵▽′)ψ ;

使用代理之后,你的每个请求都是由很多个代理服务器帮你完成.国内用的比较多的就是西刺代理,还有其他代理也不错;

下面用java实现一个ip代理池:

这里我使用的是selenium,来爬取的西刺代理,具体可以参考我上一篇文章https://blog.csdn.net/qq_27948811/article/details/96746566,如果觉得麻烦也可以自己正则去匹配西刺代理的ip和端口信息

  1. import com.alibaba.fastjson.JSON;
  2. import com.linchtech.linchspider.entity.po.ProxyIp;
  3. import com.linchtech.linchspider.xigua.WebDriverPool;
  4. import lombok.extern.slf4j.Slf4j;
  5. import org.apache.http.HttpEntity;
  6. import org.apache.http.HttpHost;
  7. import org.apache.http.client.config.RequestConfig;
  8. import org.apache.http.client.methods.CloseableHttpResponse;
  9. import org.apache.http.client.methods.HttpGet;
  10. import org.apache.http.impl.client.CloseableHttpClient;
  11. import org.apache.http.impl.client.HttpClients;
  12. import org.openqa.selenium.By;
  13. import org.openqa.selenium.WebElement;
  14. import org.openqa.selenium.chrome.ChromeDriver;
  15. import org.springframework.beans.factory.annotation.Autowired;
  16. import org.springframework.data.redis.core.RedisTemplate;
  17. import org.springframework.scheduling.annotation.Scheduled;
  18. import org.springframework.stereotype.Component;
  19. import java.util.List;
  20. import java.util.concurrent.ConcurrentLinkedQueue;
  21. /**
  22. * @author: 107
  23. * @date: 2019-09-07 18:50
  24. * @description:
  25. **/
  26. @Component
  27. @Slf4j
  28. public class ProxyIpPool {
  29. public static ConcurrentLinkedQueue<ProxyIp> proxyIps = new ConcurrentLinkedQueue<>();
  30. @Scheduled(cron = "0 0/10 * * * ?")
  31. public void getProxy() {
  32. // 这里用了自己实现的一个selenium驱动池,也可以自己new一个,及时关闭就行
  33. WebDriverPool webDriverPool = new WebDriverPool(1);
  34. ChromeDriver chromeDriver = null;
  35. try {
  36. chromeDriver = webDriverPool.get();
  37. } catch (InterruptedException e) {
  38. e.printStackTrace();
  39. }
  40. chromeDriver.get("https://www.xicidaili.com/");
  41. List<WebElement> elements = chromeDriver.findElements(By.xpath("//table[@id='ip_list']/tbody/tr"));
  42. for (int i = 2; i < elements.size(); i++) {
  43. WebElement element = elements.get(i);
  44. try {
  45. WebElement ipElement = element.findElement(By.xpath(".//td[2]"));
  46. String ip = ipElement.getText();
  47. WebElement portElement = element.findElement(By.xpath(".//td[3]"));
  48. String portStr = portElement.getText();
  49. WebElement annoy = element.findElement(By.xpath(".//td[4]"));
  50. WebElement type = element.findElement(By.xpath(".//td[6]"));
  51. int port = Integer.parseInt(portStr);
  52. ProxyIp proxyIp = new ProxyIp();
  53. proxyIp.setIp(ip);
  54. proxyIp.setPort(port);
  55. proxyIp.setType(type.getText());
  56. proxyIp.setLocation(annoy.getText());
  57. if (test(ip, port)) {
  58. // 保存到队列
  59. if (!proxyIps.contains(proxyIp)) {
  60. proxyIps.add(proxyIp);
  61. }
  62. } else {
  63. proxyIps.remove(proxyIp);
  64. }
  65. } catch (Exception e) {
  66. continue;
  67. }
  68. }
  69. webDriverPool.returnToPool(chromeDriver);
  70. webDriverPool.closeAll();
  71. }
  72. /**
  73. * 从队列中获取一个可用的ip
  74. * @return
  75. */
  76. public ProxyIp getOneIp() {
  77. if (!proxyIps.isEmpty()) {
  78. return proxyIps.poll();
  79. }
  80. return null;
  81. }
  82. /**
  83. * 将ip返回到池中
  84. * @param proxyIp
  85. */
  86. public void returnToPool(ProxyIp proxyIp) {
  87. proxyIps.add(proxyIp);
  88. }
  89. /**
  90. * 测试代理ip是否可用
  91. *
  92. * @return
  93. */
  94. private boolean test(String ip, Integer port) {
  95. try {
  96. //创建httpClient实例
  97. CloseableHttpClient httpClient = HttpClients.createDefault();
  98. //创建httpGet实例
  99. HttpGet httpGet = new HttpGet("http://www.baidu.com");
  100. //设置代理IP,设置连接超时时间 、 设置 请求读取数据的超时时间 、 设置从connect Manager获取Connection超时时间、
  101. HttpHost proxy = new HttpHost(ip, port);
  102. RequestConfig requestConfig = RequestConfig.custom()
  103. .setProxy(proxy)
  104. .setConnectTimeout(2000)
  105. .setSocketTimeout(2000)
  106. .setConnectionRequestTimeout(2000)
  107. .build();
  108. httpGet.setConfig(requestConfig);
  109. //设置请求头消息
  110. httpGet.setHeader("User-Agent", "Mozilla/5.0 (Windows NT 10.0; WOW64) AppleWebKit/537.36 (KHTML, like " +
  111. "Gecko) Chrome/62.0.3202.94 Safari/537.36");
  112. CloseableHttpResponse response = httpClient.execute(httpGet);
  113. if (response == null) {
  114. log.warn("ip:{}不可用", ip);
  115. return false;
  116. } else {
  117. HttpEntity entity = response.getEntity();
  118. if (entity != null) {
  119. return true;
  120. }
  121. }
  122. } catch (Exception e) {
  123. log.info(e.getMessage());
  124. }
  125. log.warn("ip:{}不可用", ip);
  126. return false;
  127. }
  128. }
  1. public class ProxyIp {
  2. private Long id;
  3. private String ip;
  4. private Integer port;
  5. /**
  6. * 1http; 2 https
  7. */
  8. private String type;
  9. private String location;
  10. }

这里使用ConcurrentLinkedQueue来保存可以使用的ip,使用完了再重新添加进队列,因为ConcurrentLinkedQueue是线程安全的,poll操作的时候不会出现两个任务同时使用一个ip;

从西刺代理获取到的ip和端口信息,有些不可用,所以需要测试是否能用,test()方法就是使用代理的ip和端口去访问百度,能访问通就表示可以使用,也可以记录下访问时长,将这些代理ip的访问速度排个序;

使用的时候,只需要调用

访问任务完成之后调用returnToPool(ProxyIp proxyIp)即可

声明:本文内容由网友自发贡献,不代表【wpsshop博客】立场,版权归原作者所有,本站不承担相应法律责任。如您发现有侵权的内容,请联系我们。转载请注明出处:https://www.wpsshop.cn/w/IT小白/article/detail/89677
推荐阅读
相关标签
  

闽ICP备14008679号