1. 程式人生 > >Python爬蟲實戰:股票資料定向爬蟲

Python爬蟲實戰:股票資料定向爬蟲

功能簡介

  • 目標: 獲取上交所和深交所所有股票的名稱和交易資訊。
  • 輸出: 儲存到檔案中。
  • 技術路線: requests—bs4–re
  • 語言:python3.5

說明

  • 網站選擇原則: 股票資訊靜態存在於html頁面中,非js程式碼生成,沒有Robbts協議限制。
  • 選取方法: 開啟網頁,檢視原始碼,搜尋網頁的股票價格資料是否存在於原始碼中。

如開啟新浪股票網址:連結描述(http://finance.sina.com.cn/realstock/company/sz000877/nc.shtml),如下圖所示:

上圖中左邊為網頁的介面,顯示了天山股份的股票價格是13.06。右邊為該網頁的原始碼,在原始碼中查詢13.06發現沒有找到。所以判斷該網頁的資料使用js生成的,不適合本專案。因此換一個網頁。

再開啟百度股票的網址:連結描述(https://gupiao.baidu.com/stock/sz300023.html),如下圖所示:

從上圖中可以發現百度股票的資料是html程式碼生成的,符合我們本專案的要求,所以在本專案中選擇百度股票的網址。

由於百度股票只有單個股票的資訊,所以還需要當前股票市場中所有股票的列表,在這裡我們選擇東方財富網,網址為:連結描述(http://quote.eastmoney.com/stocklist.html),介面如下圖所示:

原理分析

檢視百度股票每隻股票的網址:https://gupiao.baidu.com/stock/sz300023.html,可以發現網址中有一個編號300023正好是這隻股票的編號,sz表示的深圳交易所。因此我們構造的程式結構如下:

  • 步驟1: 從東方財富網獲取股票列表;
  • 步驟2: 逐一獲取股票程式碼,並增加到百度股票的連結中,最後對這些連結進行逐個的訪問獲得股票的資訊;
  • 步驟3: 將結果儲存到檔案。

接著檢視百度個股資訊網頁的原始碼,發現每隻股票的資訊在html程式碼中的儲存方式如下:

因此,在我們儲存每隻股票的資訊時,可以參考上圖中html程式碼的儲存方式。每一個資訊源對應一個資訊值,即採用鍵值對的方式進行儲存。在python中鍵值對的方式可以用字典型別。因此,在本專案中,使用字典來儲存每隻股票的資訊,然後再用字典把所有股票的資訊記錄起來,最後將字典中的資料輸出到檔案中。

程式碼編寫

首先是獲得html網頁資料的程式,在這裡不多做介紹了,程式碼如下:

 
  1. #獲得html文字 
  2.  
  3. def getHTMLText(url): 
  4.  
  5.     try: 
  6.  
  7.         r = requests.get(url) 
  8.  
  9.         r.raise_for_status() 
  10.  
  11.         r.encoding = r.apparent_encoding 
  12.  
  13.         return r.text 
  14.  
  15.     except: 
  16.  
  17.         return ""  

接下來是html程式碼解析程式,在這裡首先需要解析的是東方財富網頁面:連結描述(http://quote.eastmoney.com/stocklist.html),我們開啟其原始碼,如下圖所示:

由上圖可以看到,a標籤的href屬性中的網址連結裡面有每隻股票的對應的號碼,因此我們只要把網址裡面對應股票的號碼解析出來即可。解析步驟如下:

第一步,獲得一個頁面:

 
  1. html = getHTMLText(stockURL) 

第二步,解析頁面,找到所有的a標籤:

 
  1. soup = BeautifulSoup(html, 'html.parser') 
  2.  
  3. a = soup.find_all('a')  

第三步,對a標籤中的每一個進行遍歷來進行相關的處理。處理過程如下:

1.找到a標籤中的href屬性,並且判斷屬性中間的連結,把連結後面的數字取出來,在這裡可以使用正則表示式來進行匹配。由於深圳交易所的程式碼以sz開頭,上海交易所的程式碼以sh開頭,股票的數字有6位構成,所以正則表示式可以寫為[s][hz]\d{6}。也就是說構造一個正則表示式,在連結中去尋找滿足這個正則表示式的字串,並把它提取出來。程式碼如下:

 
  1. for i in a: 
  2.  
  3.     href = i.attrs['href'] 
  4.  
  5.     lst.append(re.findall(r"[s][hz]\d{6}", href)[0])  

2.由於在html中有很多的a標籤,但是有些a標籤中沒有href屬性,因此上述程式在執行的時候出現異常,所有對上述的程式還要進行try…except來對程式進行異常處理,程式碼如下:

 
  1. for i in a: 
  2.  
  3.     try: 
  4.  
  5.         href = i.attrs['href'] 
  6.  
  7.         lst.append(re.findall(r"[s][hz]\d{6}", href)[0]) 
  8.  
  9.     except: 
  10.  
  11.         continue  

從上面程式碼可以看出,對於出現異常的情況我們使用了continue語句,直接讓其跳過,繼續執行下面的語句。通過上面的程式我們就可以把東方財富網上股票的程式碼資訊全部儲存下來了。

將上述的程式碼封裝成一個函式,對東方財富網頁面解析的完整程式碼如下所示:

 
  1. def getStockList(lst, stockURL): 
  2.  
  3.     html = getHTMLText(stockURL) 
  4.  
  5.     soup = BeautifulSoup(html, 'html.parser') 
  6.  
  7.     a = soup.find_all('a') 
  8.  
  9.     for i in a: 
  10.  
  11.         try: 
  12.  
  13.             href = i.attrs['href'] 
  14.  
  15.             lst.append(re.findall(r"[s][hz]\d{6}", href)[0]) 
  16.  
  17.         except: 
  18.  
  19.             continue  

接下來是獲得百度股票網連結描述(https://gupiao.baidu.com/stock/sz300023.html)單隻股票的資訊。我們先檢視該頁面的原始碼,如下圖所示:

股票的資訊就存在上圖所示的html程式碼中,因此我們需要對這段html程式碼進行解析。過程如下:

1.百度股票網的網址為:https://gupiao.baidu.com/stock/

一隻股票資訊的網址為:https://gupiao.baidu.com/stock/sz300023.html

所以只要百度股票網的網址+每隻股票的程式碼即可,而每隻股票的程式碼我們已經有前面的程式getStockList從東方財富網解析出來了,因此對getStockList函式返回的列表進行遍歷即可,程式碼如下:

 
  1. for stock in lst: 
  2.  
  3. url = stockURL + stock + ".html"  

2.獲得網址後,就要訪問網頁獲得網頁的html程式碼了,程式如下:

 
  1. html = getHTMLText(url) 

3.獲得了html程式碼後就需要對html程式碼進行解析,由上圖我們可以看到單個股票的資訊存放在標籤為div,屬性為stock-bets的html程式碼中,因此對其進行解析:

 
  1. soup = BeautifulSoup(html, 'html.parser') 
  2.  
  3. stockInfo = soup.find('div',attrs={'class':'stock-bets'}) 

4.我們又發現股票名稱在bets-name標籤內,繼續解析,存入字典中:

 
  1. infoDict = {} 
  2.  
  3. name = stockInfo.find_all(attrs={'class':'bets-name'})[0] 
  4.  
  5. infoDict.update({'股票名稱': name.text.split()[0]})  

split()的意思是股票名稱空格後面的部分不需要了。

5.我們從html程式碼中還可以觀察到股票的其他資訊存放在dt和dd標籤中,其中dt表示股票資訊的鍵域,dd標籤是值域。獲取全部的鍵和值:

 
  1. keyList = stockInfo.find_all('dt') 
  2.  
  3. valueList = stockInfo.find_all('dd')  

並把獲得的鍵和值按鍵值對的方式村放入字典中:

 
  1. for i in range(len(keyList)): 
  2.  
  3. key = keyList[i].text 
  4.  
  5. val = valueList[i].text 
  6.  
  7. infoDict[key] = val  

6.最後把字典中的資料存入外部檔案中:

 
  1. with open(fpath, 'a', encoding='utf-8') as f: 
  2.  
  3. f.write( str(infoDict) + '\n' )  

將上述過程封裝成完成的函式,程式碼如下:

 
  1. def getStockInfo(lst, stockURL, fpath): 
  2.  
  3.     for stock in lst: 
  4.  
  5.         url = stockURL + stock + ".html" 
  6.  
  7.         html = getHTMLText(url) 
  8.  
  9.         try: 
  10.  
  11.             if html=="": 
  12.  
  13.                 continue 
  14.  
  15.             infoDict = {} 
  16.  
  17.             soup = BeautifulSoup(html, 'html.parser') 
  18.  
  19.             stockInfo = soup.find('div',attrs={'class':'stock-bets'}) 
  20.  
  21.             name = stockInfo.find_all(attrs={'class':'bets-name'})[0] 
  22.  
  23.             infoDict.update({'股票名稱': name.text.split()[0]}) 
  24.  
  25.              
  26.  
  27.             keyList = stockInfo.find_all('dt') 
  28.  
  29.             valueList = stockInfo.find_all('dd') 
  30.  
  31.             for i in range(len(keyList)): 
  32.  
  33.                 key = keyList[i].text 
  34.  
  35.                 val = valueList[i].text 
  36.  
  37.                 infoDict[key] = val 
  38.  
  39.              
  40.  
  41.             with open(fpath, 'a', encoding='utf-8') as f: 
  42.  
  43.                 f.write( str(infoDict) + '\n' ) 
  44.  
  45.         except: 
  46.  
  47.             continue  

其中try…except用於異常處理。

接下來編寫主函式,呼叫上述函式即可:

 
  1. def main(): 
  2.  
  3.     stock_list_url = 'http://quote.eastmoney.com/stocklist.html' 
  4.  
  5.     stock_info_url = 'https://gupiao.baidu.com/stock/' 
  6.  
  7.     output_file = 'D:/BaiduStockInfo.txt' 
  8.  
  9.     slist=[] 
  10.  
  11.     getStockList(slist, stock_list_url) 
  12.  
  13.     getStockInfo(slist, stock_info_url, output_file)  

專案完整程式

 
  1. # -*- coding: utf-8 -*- 
  2.  
  3.   
  4.  
  5. import requests 
  6.  
  7. from bs4 import BeautifulSoup 
  8.  
  9. import traceback 
  10.  
  11. import re 
  12.  
  13. def getHTMLText(url): 
  14.  
  15.     try: 
  16.  
  17.         r = requests.get(url) 
  18.  
  19.         r.raise_for_status() 
  20.  
  21.         r.encoding = r.apparent_encoding 
  22.  
  23.         return r.text 
  24.  
  25.     except: 
  26.  
  27.         return "" 
  28.  
  29. def getStockList(lst, stockURL): 
  30.  
  31.     html = getHTMLText(stockURL) 
  32.  
  33.     soup = BeautifulSoup(html, 'html.parser') 
  34.  
  35.     a = soup.find_all('a') 
  36.  
  37.     for i in a: 
  38.  
  39.         try: 
  40.  
  41.             href = i.attrs['href'] 
  42.  
  43.             lst.append(re.findall(r"[s][hz]\d{6}", href)[0]) 
  44.  
  45.         except: 
  46.  
  47.             continue 
  48.  
  49. def getStockInfo(lst, stockURL, fpath): 
  50.  
  51.     count = 0 
  52.  
  53.     for stock in lst: 
  54.  
  55.         url = stockURL + stock + ".html" 
  56.  
  57.         html = getHTMLText(url) 
  58.  
  59.         try: 
  60.  
  61.             if html=="": 
  62.  
  63.                 continue 
  64.  
  65.             infoDict = {} 
  66.  
  67.             soup = BeautifulSoup(html, 'html.parser') 
  68.  
  69.             stockInfo = soup.find('div',attrs={'class':'stock-bets'}) 
  70.  
  71.             name = stockInfo.find_all(attrs={'class':'bets-name'})[0] 
  72.  
  73.             infoDict.update({'股票名稱': name.text.split()[0]}) 
  74.  
  75.              
  76.  
  77.             keyList = stockInfo.find_all('dt') 
  78.  
  79.             valueList = stockInfo.find_all('dd') 
  80.  
  81.             for i in range(len(keyList)): 
  82.  
  83.                 key = keyList[i].text 
  84.  
  85.                 val = valueList[i].text 
  86.  
  87.                 infoDict[key] = val 
  88.  
  89.              
  90.  
  91.             with open(fpath, 'a', encoding='utf-8') as f: 
  92.  
  93.                 f.write( str(infoDict) + '\n' ) 
  94.  
  95.                 count = count + 1 
  96.  
  97.                 print("\r當前進度: {:.2f}%".format(count*100/len(lst)),end="") 
  98.  
  99.         except: 
  100.  
  101.             count = count + 1 
  102.  
  103.             print("\r當前進度: {:.2f}%".format(count*100/len(lst)),end="") 
  104.  
  105.             continue 
  106.  
  107. def main(): 
  108.  
  109.     stock_list_url = 'http://quote.eastmoney.com/stocklist.html' 
  110.  
  111.     stock_info_url = 'https://gupiao.baidu.com/stock/' 
  112.  
  113.     output_file = 'D:/BaiduStockInfo.txt' 
  114.  
  115.     slist=[] 
  116.  
  117.     getStockList(slist, stock_list_url) 
  118.  
  119.     getStockInfo(slist, stock_info_url, output_file) 
  120.  
  121. main()  

上述程式碼中的print語句用於列印爬取的進度。執行完上述程式碼後在D盤會出現BaiduStockInfo.txt檔案,裡面存放了股票的資訊。