1. 程式人生 > >如何使用Jsoup爬取網頁內容

如何使用Jsoup爬取網頁內容

前言:

這是一篇遲到很久的文章了,人真的是越來越懶,前一陣用jsoup實現了一個功能,個人覺得和selenium的webdriver原理類似,所以今天正好有時間,就又來更新分享了。

實現場景:

爬取部落格園https://www.cnblogs.com/longronglang,文章列表中標題、連結、釋出時間及閱讀量

 

思路:

1、引入jar包

2、通過httpclient,設定引數,代理,建立連線,獲取HTML文件(響應資訊)

3、將獲取的響應資訊,轉換成HTML文件為Document物件

4、使用jQuery定位方式,這塊就和web自動化一樣了定位獲取文字及相關屬性

相關詳細使用參考官網:https://jsoup.org/

實現:

 

 1、引入依賴

<dependency>
            <groupId>org.jsoup</groupId>
            <artifactId>jsoup</artifactId>
            <version>1.10.3</version>
        </dependency>
        <dependency>
            <groupId>commons-httpclient</groupId>
            <artifactId>commons-httpclient</artifactId>
            <version>3.1</version>
</dependency>

2、通過httpclient,設定引數,代理,建立連線,獲取HTML文件(響應資訊)

        String requestUrl = "https://www.cnblogs.com/longronglang/";
        HttpClient client = new HttpClient();
        HttpClientParams clientParams = client.getParams();
        clientParams.setContentCharset("UTF-8");
        GetMethod method = new GetMethod(requestUrl);
        String response =method.getResponseBodyAsString();

3、將獲取的響應資訊,轉換成HTML文件為Document物件

  Document document = Jsoup.parse(response);

4、使用jQuery定位方式,這塊就和web自動化一樣了定位獲取文字及相關屬性

這裡可以仔細看下,也可以說是核心思路了,如下圖:

 

 從圖中可以看到,文章標題在在a標籤中,也就是通過class屬性為postTitle2進行繫結,那麼我們的dom物件就定位到這裡即可,那麼我想獲取文章標題這個dom物件,可以寫成如下程式碼:

 Elements postItems = document.getElementsByClass("postTitle2");

同理,獲取釋出時間及閱讀量,也可以寫成如下程式碼:

 Elements readcontexts = document.getElementsByClass("postDesc");

最後我們來段整合的程式碼如下:

import org.apache.commons.httpclient.HttpClient;
import org.apache.commons.httpclient.HttpStatus;
import org.apache.commons.httpclient.methods.GetMethod;
import org.apache.commons.httpclient.params.HttpClientParams;
import org.jsoup.Jsoup;
import org.jsoup.nodes.Document;
import org.jsoup.select.Elements;
import org.junit.Test;

import java.io.IOException;

public class JsoupTest {

    @Test
    public void test() {
        String requestUrl = "https://www.cnblogs.com/longronglang/";
        HttpClient client = new HttpClient();
        HttpClientParams clientParams = client.getParams();
        clientParams.setContentCharset("UTF-8");
        GetMethod method = new GetMethod(requestUrl);
        String response = null;
        int code = 0;
        try {
            code = client.executeMethod(method);
            response = method.getResponseBodyAsString();
            if (code == HttpStatus.SC_OK) {
                Document document = Jsoup.parse(response);
                Elements postItems = document.getElementsByClass("postTitle2");
                Elements readcontexts = document.getElementsByClass("postDesc");
                for (int i = 0; i < postItems.size(); i++) {
                    System.out.println("文章標題:" + postItems.get(i).text());
                    System.out.println("文章地址:" + postItems.get(i).attr("href"));
                    System.out.println("釋出資訊:" + readcontexts.get(i).text());
                }
            } else {
                System.out.println("返回狀態不是200,可能需要登入或者授權,亦或者重定向了!");
            }
        } catch (IOException e) {
            e.printStackTrace();
        }
    }
}

執行結果如下:

到此,一個爬蟲搞完,這裡只事拋磚引用,有興趣的同學,請自行擴充套件。

 

 

 

如果感情一開始就是不對等的,那麼索性就早點結束掉它,利人利己。