Java中使用四叶天动态代理IP构建ip代理池,实现httpClient和Jsoup代理ip爬虫

news/2024/12/24 2:41:39 标签: java, tcp/ip, 爬虫

在本次爬虫项目中,关于应用IP代理池方面,具体完成以下功能:

  1. 从指定API地址提取IP到ip池中(一次提取的IP数量可以自定义更改)

  2. 每次开始爬虫前(多条爬虫线程并发执行),从ip池中获取一条可用ip和端口号(并用此ip进行代理爬虫

  3. 每条IP的有效时间为1~5分钟,如果爬虫过程中当前代理ip失效时,程序可以自动切换IP,并从当前爬到的页数开始继续爬虫

目录

一、四叶天动态代理IP的使用步骤

二、在Java中动态IP代理的工具类

三、如何使用动态Ip进行网站访问

四、实际爬虫过程中的注意事项

五、代码中的亮点:


一、四叶天动态代理IP的使用步骤

想要使用ip代理池来进行代理IP爬虫,我们首先要购买一些可用IP,下面介绍一个好用实惠的IP代理网站:(https://www.siyetian.com)提供高质量的动态IP 服务 ,以下是购买和使用该服务的详细步骤:

(一)购买动态 IP 服务

  1. 注册并登录

  2. 实名认证:在使用服务前,需完成实名认证。登录后,前往实名认证页面(登录 - 四叶天HTTP),按照提示提交相关信息进行认证。

  3. 选择套餐:点击顶部导航栏“动态IP”,选择适合的动态 IP 套餐。这里我使用的是:按使用量购买,四块钱1000条IP

  4. 支付购买

(二)使用动态 IP 服务

点击顶部导航栏的提取API

我的配置如下:

①IP协议为Http

②提取数量为每次一条,

③数据格式设置为Json

④在白名单中添加本机IP

最后点击生成api链接,你会得到一个URL地址,每访问一次该地址,就会返回一条IP地址和一个端口号(同时你刚买的1000条IP中就少一条🐶)

注意事项(该部分AI生成用于凑字数,不想看可不看🐶):

  1. 设置白名单:在使用代理 IP 前,需将您的本机 IP地址 添加到白名单,以确保代理服务的正常使用。

    前往白名单设置页面:(登录 - 四叶天HTTP),添加您的本地 IP 地址。

  2. 配置代理IP:您可以在应用程序或浏览器中,设置使用获取的代理 IP。具体步骤如下:

    • 在浏览器设置:在浏览器的网络设置中,选择手动代理配置,输入获取的代理 IP 地址和端口号,保存设置。

    • 在程序设置:在您的爬虫、网络请求等程序中,按照编程语言的网络请求库要求,设置代理 IP 和端口。

  3. 验证代理有效性:在开始正式使用前,建议测试代理 IP 的有效性。您可以通过访问特定网站或使用相关工具,检查当前的外网 IP 是否与代理 IP 匹配,以确保代理设置成功。

注意事项(这是本人写的,大家要注意)

  • IP 时效性:每条动态 IP 的有效时长通常较短(这里是 1-5 分钟后就会失效),请根据您的业务需求,合理设置提取频率和使用策略,当一条IP到期时确保你的爬虫程序可以自动更换IP。

通过以上步骤,您即可购买并使用四叶天代理的动态 IP 服务,满足您的网络代理需求。

二、在Java中动态IP代理的工具类

当你购买完代理IP后,可以参考官方提供的SDK代码示例来构造自己的IP代理池,如下图:

 

但是官方代码的并不适合我的需求,因此本人自己找了一个Java工具类,用于IP代理池的构建和使用,非常方便。

代码如下(供大家参考):

java">import com.alibaba.fastjson2.JSON;
import com.alibaba.fastjson2.JSONArray;
import com.alibaba.fastjson2.JSONObject;
import com.qcby.byspringbootdemo.entity.AgencyIp;
​
import java.io.BufferedReader;
import java.io.IOException;
import java.io.InputStreamReader;
import java.net.HttpURLConnection;
import java.net.InetSocketAddress;
import java.net.Proxy;
import java.net.URL;
import java.util.Iterator;
import java.util.concurrent.CopyOnWriteArraySet;
import java.util.concurrent.ExecutorService;
import java.util.concurrent.Executors;
​
public class YzxIpPoolUtil {
    //使用线程安全集合类存储代理ip
    private static CopyOnWriteArraySet<AgencyIp> ipSet = new CopyOnWriteArraySet<>();
​
    // 使用线程池执行IP验证任务
    static ExecutorService pool = Executors.newFixedThreadPool(10);
​
​
​
    //从ip集合中获取一个有效的代理IP,若集合中没有则返回null
    /*public static AgencyIp getAvailableIp() {
       if (!ipSet.isEmpty()) {
           Iterator<AgencyIp> iterator = ipSet.iterator();
           while (iterator.hasNext()) {
               AgencyIp ip = iterator.next();
               if (checkIpAddress(ip)) {
                   return ip;
               }else {
                   iterator.remove();
               }
           }
​
       }
       return null;
    }*/
​
    /**
     * 改进版getAvailableIp()  确保返回的ip一定有效
     * @return
     */
    public static AgencyIp getAvailableIp() {
        //更新ipSet集合,确保里面有ip且一定可用
        updateIpSet();
        for (AgencyIp ip : ipSet) {
            if (checkIpAddress(ip)) {
                return ip;
            }
        }
        return null;
    }
​
    /**
     * 更新ipSet集合,删除无效ip,如果为空则获取ip
     */
    public static void updateIpSet(){
        if (!ipSet.isEmpty()) {
            //删除无效ip
            ipSet.removeIf(ip -> !checkIpAddress(ip));
        }
​
        if (ipSet.isEmpty()) {
            //如果空,则获取ip
                getIpList();
        }
    }
​
    //抓取ip,放进ip代理池
    private static void getIpList() {
        System.out.println("正在抓取IP......");
        String apiUrl = "http://proxy.siyetian.com/apis_get.html?token=AesJWLNpXR51kaJdXTqFFeNRVS14EVJlXTn1STqFUeORUR41karlXTU1kePRVS10ERNhnTqFFe.wN2YTN0IDNzcTM&limit=1&type=0&time=&data_format=json";
​
        String resultJsonStr = null;
        try {
            resultJsonStr = getData(apiUrl);
        } catch (IOException e) {
            System.out.println("ip抓取失败,请检查URL是否正确");
            throw new RuntimeException("ip抓取失败");
        }
        JSONObject jsonObject = JSON.parseObject(resultJsonStr);
​
        // 从返回的数据中提取代理列表
        if (jsonObject.getIntValue("code") == 1) {
            JSONArray data = (JSONArray) jsonObject.get("data");
            for (int i = 0;i<data.size();i++){
                // 创建 AgencyIp 对象
                AgencyIp agencyIp = new AgencyIp();
                agencyIp.setAddress(data.getJSONObject(i).get("ip").toString());
                agencyIp.setPort((int)data.getJSONObject(i).get("port"));
​
                if (checkIpAddress(agencyIp)){
                    ipSet.add(agencyIp);
                    System.out.println("已经放入集合一个ip:"+agencyIp.toString());
                }
​
/*开启子线程检查该IP是否可用(选用)
    *如果不使用子线程,
    * 而是在主线程中依次检查每个 IP 的可用性,
    * 那么每次检查都需要等待上一次检查完成,这个过程是顺序执行的。
    * 当 IP 数量较多或者检查 IP 可用性的操作(比如发起网络请求去验证等)比较耗时的时候,
    * 主线程就会被长时间阻塞,导致后续其他代码无法及时执行,影响整个程序的响应速度和执行效率。
    * 而通过开启子线程,可以让多个 IP 的可用性检查操作并发进行,
    * 主线程不必等待每个检查操作结束就能继续往下执行其他任务,比如继续去抓取更多 IP
    * 提升了整体的执行效率。
*/
               
//                pool.execute(new Runnable() {
//                    @Override
//                    public void run() {
//                        if (checkIpAddress(agencyIp)){
//                            ipSet.add(agencyIp);
//                        }
//                    }
//                });
            }
        }else {
            System.out.println("抓取代理IP失败,状态码为0");
        }
    }
​
    // 检查代理IP地址是否有效
    public static boolean checkIpAddress(AgencyIp agencyIp) {
        if(agencyIp.getAddress()==null){
            return false;
        }
        Proxy proxy = new Proxy(Proxy.Type.HTTP, new InetSocketAddress(agencyIp.getAddress(), agencyIp.getPort()));
        HttpURLConnection connection = null;
        int retries = 3;  // 重试次数
        while (retries > 0) {
            try {
                connection = (HttpURLConnection) new URL("https://www.baidu.com/").openConnection(proxy);
                connection.setConnectTimeout(3000);  // 设置连接超时
                connection.setReadTimeout(3000);     // 设置读取超时
                connection.setUseCaches(false);
​
                if (connection.getResponseCode() == 200) {
                    System.out.println(agencyIp.getAddress() + " 该IP有效");
                    return true;
                }
            } catch (IOException e) {
                System.out.println(agencyIp.getAddress() + " 该IP无效,原因:" + e.getMessage());
                retries--;
                if (retries == 0) {
                    System.out.println(agencyIp.getAddress() + " 无效代理,尝试 " + (3 - retries) + " 次后失败");
                }
            }
        }
        return false;
    }
​
    // 获取指定url内容
    private static String getData(String requestUrl) throws IOException {
        URL url = new URL(requestUrl);
        HttpURLConnection conn = (HttpURLConnection) url.openConnection();
        conn.setRequestMethod("GET");
        conn.connect();//建立连接(可选)
        //InputStream是字节流,下行代码是把字节流转换为字符流,然后再转换为BufferedReader字符流,以便于按行读取数据
        BufferedReader reader = new BufferedReader(new InputStreamReader(conn.getInputStream(), "utf-8"));
        //StringBuffer(线程安全的可变字符序列)
        StringBuffer buffer = new StringBuffer();
        String str;
        while ((str = reader.readLine()) != null) {
            buffer.append(str);
        }
        if (buffer.length() == 0) {
            buffer.append("[]");
        }
        String result = buffer.toString();
        reader.close();//关闭BufferedReader
        conn.disconnect();//关闭连接(可选)
        return result;
    }
​
    public static void main(String[] args) {
        updateIpSet();
        System.out.println(ipSet.toString());
    }
}
​

下面是对这段代码中每个方法的功能总结:


类变量

  • ipSet:使用线程安全的 CopyOnWriteArraySet 存储代理 IP 的集合。

  • pool:线程池,用于执行 IP 验证任务。


方法列表

  1. getAvailableIp

    • 功能:从 ipSet 中获取一个有效的代理 IP。

    • 实现:

      调用 updateIpSet 方法,确保集合中的 IP 是最新且有效的。

      遍历 ipSet,找到并返回第一个可用的 IP。

  2. updateIpSet

    • 功能:更新 ipSet,删除无效 IP。如果集合为空,则调用 getIpList 获取新的 IP。

    • 实现:

      遍历 ipSet,调用 checkIpAddress 方法,移除不可用的 IP。

      如果集合为空,调用 getIpList 抓取新的 IP。

  3. getIpList

    • 功能:从指定的 API 地址抓取代理 IP,并添加到 ipSet 中。

    • 实现:

      调用 getData 方法从指定 URL 获取 JSON 数据。

      解析 JSON,提取 IP 和端口,创建 AgencyIp 对象。

      检查每个 IP 的可用性(调用 checkIpAddress),将有效 IP 添加到集合中。

  4. checkIpAddress

    • 功能:检查代理 IP 地址是否有效。

    • 实现:

      使用 Proxy 类设置代理。

      尝试通过代理访问 https://www.baidu.com/

      如果响应码为 200,表示代理有效。

      支持多次重试(3 次)。

  5. getData

    • 功能:从指定的 URL 获取内容并返回为字符串。

    • 实现:

      通过 HttpURLConnection 建立连接。

      读取响应内容并返回。


主方法

  • main方法:

    功能:测试 updateIpSet 方法,并打印当前 ipSet 中的代理 IP。


总结

  • 核心流程:程序通过 API 抓取代理 IP,验证其可用性后存入集合,支持动态更新和多线程并发验证。

  • 线程安全:利用 CopyOnWriteArraySet 和线程池确保在多线程环境下数据操作的安全性。

三、如何使用动态Ip进行网站访问

项目逻辑:每次开始爬虫前,使用工具类从ip池中获取一条可用ip和端口号,并用此ip进行代理爬虫,以防止本机IP被封。

下面分别给出使用 JsoupHttpClient 结合代理 IP 访问网站的示例代码:


1. Jsoup 使用代理 IP

java">import org.jsoup.Jsoup;
import org.jsoup.nodes.Document;
import java.io.IOException;
​
public class JsoupProxyExample {
    public static void main(String[] args) {
        // 获取代理 IP 和端口号(通过工具类获取)
        String proxyIp = "127.0.0.1";
        int proxyPort = 8080;
​
        // 要访问的目标 URL
        String targetUrl = "https://www.baidu.com";
​
        try {
            // 配置 Jsoup 使用代理 IP
            Document document = Jsoup.connect(targetUrl)
               .proxy(proxyIp, proxyPort) // 设置代理IP和端口号
                .timeout(5000)            // 设置超时时间
                .get();                   // 发送 GET 请求
​
            // 打印响应内容
            System.out.println(document.title());
        } catch (IOException e) {
            System.out.println("请求失败,错误信息: " + e.getMessage());
        }
    }
}

2. HttpClient 使用代理 IP

java">import org.apache.http.HttpHost;
import org.apache.http.client.methods.CloseableHttpResponse;
import org.apache.http.client.methods.HttpGet;
import org.apache.http.impl.client.CloseableHttpClient;
import org.apache.http.impl.client.HttpClients;
import org.apache.http.util.EntityUtils;
​
import java.io.IOException;
​
public class HttpClientProxyExample {
    public static void main(String[] args) {
        // 获取代理 IP 和端口号(通过工具类获取)
        String proxyIp = "127.0.0.1";
        int proxyPort = 8080;
​
        // 要访问的目标 URL
        String targetUrl = "https://www.baidu.com";
​
        // 配置 HttpClient 使用代理ip和端口号
        HttpHost proxy = new HttpHost(proxyIp, proxyPort);
        CloseableHttpClient httpClient = HttpClients.custom()
                .setProxy(proxy) // 设置代理
                .build();
​
// 这里用 HTTP GET 请求作为演示,你也可以使用post请求并携带一些参数
        HttpGet httpGet = new HttpGet(targetUrl);
​
        try {
            CloseableHttpResponse response = httpClient.execute(httpGet)
            // 打印响应状态码
            System.out.println("Response Status: " + response.getStatusLine());
​
            // 打印响应内容
            String responseBody = EntityUtils.toString(response.getEntity());
            System.out.println("Response Content: \n" + responseBody);
        } catch (IOException e) {
            System.out.println("请求失败,错误信息: " + e.getMessage());
        } finally {
            try {
                httpClient.close();
            } catch (IOException e) {
                System.out.println("关闭 HttpClient 时出错: " + e.getMessage());
            }
        }
    }
}

注意事项

  1. 超时处理:建议设置超时时间,避免长时间等待。

  2. 目标网站设置:确保目标网站允许被代理访问,并避免触发反爬机制。

可以根据你的业务场景,将上述代码与 IP 池工具类集成,实现高效的代理访问功能。

四、实际爬虫过程中的注意事项

每条IP的有效时间为1~5分钟,如果爬虫过程中当前代理ip失效时,程序可以自动切换IP,并从当前爬到的页数开始继续爬虫

实现思路:

  1. 首先,封装一个爬虫方法crawler( ),接收参数是int类型的页码,返回信息是String类型字符串,该方法若成功执行完毕则返回"success";
  2. 用try-catch包裹爬虫核心代码,当捕捉到异常后,调用工具类的checkIpAddress( )方法检查当前ip是否有效,若当前ip有效,则代表异常不是因为IP失效引起的,此时应手动抛出“爬虫异常”,并自定义异常信息;若当前ip已经失效,则很有可能因为是ip失效引起的异常,此时我们返回一个Json格式的字符串,其中记录爬虫中断时的页码和关键字。
  3. 当收到爬虫方法crawler( )返回的字符串str后,检查str,若是"success"则表示本次爬虫成功;否则,则用JSON.isValid( )方法解析该字符串,若解析成功则表示当前需要更换新的代理ip:然后①调用工具类获取新IP ②记录下字符串中的页码;
  4. 然后用新IP和当前页码再次调用爬虫方法crawler( )继续爬虫

下面是用ChatGPT进行的一个上述思路的总结(如果觉得上面的大段字看着费劲,可以参考下面的🐶):

A.爬虫方法 crawler( ) 的实现要求:

方法功能

  • 方法名称:crawler( )
  • 参数:int 类型的页码。
  • 返回值:String 类型,表示爬虫状态。

执行逻辑

  • 核心功能:尝试爬取指定页码的数据。
  • 成功时:如果爬取成功,返回 "success"
  • 异常处理:使用 try-catch 包裹爬虫核心代码,捕捉可能出现的异常。捕获到异常后,调用工具类的 checkIpAddress( ) 方法,检查当前代理 IP 是否有效。
  1. 如果当前 IP 无效:可能因 IP 失效导致爬虫中断,返回一个 JSON 格式的字符串,其中包含:中断时的 关键字、中断时的 页码
  2. 如果当前 IP 有效:
    说明异常不是因 IP 失效引起的,此时需手动抛出“爬虫异常”。
    手动抛出的异常应包含自定义的异常信息。

B.调用 crawler( ) 方法的主逻辑:

调用 crawler( ) 方法后,接收其返回的字符串 str

检查返回值str

  • 如果 str == "success":表示本次爬虫成功,无需进一步操作。
  • 如果 str 不是 "success"
    • 使用 JSON.isValid( ) 方法解析该字符串。
    • 若解析成功则表示代理ip失效需要更换新的 IP。
      1. 执行以下步骤:① 获取新代理 IP:调用工具类获取新的代理 IP。
                                ② 记录页码:从 str 中提取中断时的页码。
      2. 使用新 IP 和记录的页码,重新调用 crawler( ) 方法,继续执行爬虫

循环上述过程,直到爬虫任务完成。

五、代码中的亮点:

以下是工具类代码中使用的一些亮点技术:


1. 线程安全的集合类:CopyOnWriteArraySet

  • 特点CopyOnWriteArraySet 是基于 CopyOnWriteArrayList 实现的线程安全集合,适合在多线程环境下需要频繁读取且写操作较少的场景。

  • 应用:用于存储代理 IP,保证在多线程操作时不出现并发问题。

  • 亮点:通过 removeIf 方法移除无效 IP,实现高效、安全的集合操作。


2. 多线程并发操作

  • 线程池使用:通过 Executors.newFixedThreadPool(10) 创建固定大小的线程池。

  • 目的:并发执行代理 IP 的可用性检查,提高程序执行效率。

  • 亮点

    • 避免每次创建和销毁线程的开销,提升性能。

    • 子线程的检查操作不会阻塞主线程,从而使抓取和检查 IP 可以并发进行。


3. 动态更新代理 IP 池

  • 逻辑:updateIpSet()

    方法会定期更新 IP 池:

    • 删除无效 IP。

    • 当 IP 池为空时,自动调用 getIpList 方法获取新的代理 IP。

  • 亮点:

    • 保证了代理 IP 池的有效性,避免程序因代理失效而中断。

    • 自动化管理 IP 池,减少了人工干预的需求。


4. JSON 数据解析

  • 工具:使用 fastjson2 解析 JSON 数据。

  • 功能:

    • 从代理 IP 提供商的 API 返回结果中提取 IP 地址和端口。

    • 动态构造 AgencyIp 对象,并添加到代理 IP 池中。

  • 亮点fastjson2 提供了高效、简洁的 JSON 解析方式,适合处理复杂数据结构。


5. 动态代理ip的网络连接检查

  • 技术:通过 Proxy 类创建 HTTP 动态代理,并使用 HttpURLConnection 检查代理 IP 的可用性。

  • 亮点:

    • 使用 Proxy.Type.HTTP 动态指定代理服务器和端口。

    • 设置连接超时和读取超时,防止长时间阻塞。

    • 支持多次重试机制,提高代理验证的鲁棒性。


6. 可扩展的代理 IP 池管理逻辑

  • 结构设计:

    • getAvailableIp 方法封装了获取有效 IP 的逻辑,确保返回的 IP 一定有效。

    • checkIpAddress 方法独立负责代理 IP 的可用性检查,职责清晰。

    • getIpList 方法负责动态从 API 获取新的代理 IP。

  • 亮点:模块化设计,代码清晰且易于扩展,便于日后维护和功能拓展。


7. 异常处理机制

  • 重试机制:在 checkIpAddress 方法中,加入了重试逻辑,当某次检查失败时会进行多次尝试。

  • 故障恢复:当抓取 IP 或检查 IP 时发生异常,提供了详细的日志信息,有助于问题排查。

  • 亮点:通过异常捕获和日志记录,使程序更稳定、可靠。


8. 自动化与高效性

  • 亮点:

    • 自动化抓取和更新代理 IP,减少了手动操作。

    • 结合多线程和动态代理技术,提升了执行效率。


总结

代码通过线程安全集合、多线程处理、动态代理、JSON 数据解析等技术,高效实现了一个可靠的代理 IP 池管理工具。代码模块化清晰,具有良好的扩展性和稳定性,非常适合在分布式爬虫或高并发网络请求场景中应用。


http://www.niftyadmin.cn/n/5797234.html

相关文章

深度学习从入门到精通——图像分割实战DeeplabV3

DeeplabV3算法 参数配置关于数据集的配置训练集参数 数据预处理模块DataSet构建模块测试一下数据集去正则化模型加载模块DeepLABV3 参数配置 关于数据集的配置 parser argparse.ArgumentParser()# Datset Optionsparser.add_argument("--data_root", typestr, defa…

【Java基础面试题029】Java中的hashCode和equals方法之间有什么关系?

回答重点 在Java中&#xff0c;hashCode()和equals方法的关系主要体现在集合类&#xff08;如HashMap、HashSet&#xff09;中。 他俩决定了对象的逻辑相等性和哈希存储方式 equals()方法&#xff1a; 用于判断两个对象是否相等&#xff0c;默认实现是使用比较对象的内存地…

文章发稿平台哪个好用?哪个类型的媒体平台比较好过稿?

在做软文推广的过程中&#xff0c;被拒稿是个常见但又让人头疼的问题。尤其在推广节奏比较紧张的时候&#xff0c;拒稿会导致整个进度被持续拖延&#xff0c;在企业公关、新品推广等环节中会产生较为明显的负面影响。 文章发稿平台哪个好用&#xff1f;哪个类型的文章发稿平台比…

HarmonyOS NEXT 技术实践-基于基础视觉服务的多目标识别

在智能手机、平板和其他智能设备日益智能化的今天&#xff0c;视觉识别技术成为提升用户体验和智能交互的重要手段。HarmonyOS NEXT通过基础视觉服务&#xff08;HMS Core Vision&#xff09;提供了一套强大的视觉识别功能&#xff0c;其中多目标识别作为其关键技术之一&#x…

sh cmake-linux.sh -- --skip-license --prefix = $MY_INSTALL_DIR

本文来自天工AI --------- 命令用于安装CMake的脚本&#xff0c;其中--skip-license参数表示跳过许可协议的显示&#xff0c;--prefix参数指定了CMake的安装目录。$MYINSTALLDIR是一个环境变量&#xff0c;应该在运行命令之前设置为您想要安装CMake的目录。 -------- sh xx…

git推送本地仓库到远程(Gitee)

目录 一、注册创建库 二、创建仓库 三、推送本地仓库到远程 1.修改本地仓库用户名和邮箱 2.本地库关联远程仓库 3.拉取远程仓库的文件 4.推送本地库的文件 5.查看远程仓库 四、远程分支查看 1.查看远程分支 2.修改test.txt文件 一、注册创建库 Gitee官网&#xff1…

SSH用户认证

SSH用户认证最基本的两种方式是密码认证和密钥认证。密码认证是将自己的用户名和密码发送给服务器进行认证&#xff0c;这种方式比较简单&#xff0c;且每次登录都需要输入用户名和密码。密钥认证使用公钥私钥对进行身份验证&#xff0c;实现安全的免密登录&#xff0c;是一种广…

《开启微服务之旅:Spring Boot Web开发举例》(二)

Springboot开发企业信息管理系统 引入资源 1.创建项目引入页面原型 2.引入maven的依赖和starters <dependency> <groupId>org.springframework.boot</groupId> <artifactId>spring-boot-starter-web</artifactId></dependency><d…