Python爬取4027條脈脈職言,解讀網際網路人的苦與難!
脈脈是一個實名職場社交平臺。之前爬了脈脈職言版塊,大概爬了4027條評論,本文對爬取過程給出詳細說明,對於評論內容僅做視覺化分析,之前存了一堆這方面的文章,今天一看全都404了”。
爬蟲
仍然使用python程式設計,對爬蟲沒興趣的可以直接跳過看下部分,不影響悅讀。
網址https://maimai.cn/gossip_list。
需要先登入才能看到裡面的內容。爬取目標:
只爬文字部分,圖片不考慮。
在瀏覽器內按F12開啟開發者,向下滑,會看到很多gossip開頭的json檔案(不行的話重新整理一下)
右鍵open in new tab,裡面是一條一條記錄,text後面是評論內容。
我們感興趣的資訊是下面這些
看一看每個網站的地址,都是page=數字結尾,所以爬的時候寫一個迴圈,數字從1開始往後取就可以了。
https://maimai.cn/sdk/web/gossip_list?u=206793936&channel=www&version=4.0.0&_csrf=coAlLvgS-UogpI75vEgHk4O1OQivF2ofLce4&access_token=1.9ff1c9df8547b2b2c62bf58b28e84b97&uid=%22MRlTFjf812rF62rOeDhC6vAirs3A3wL6ApgZu%2Fo1crA%3D%22&token=%22rE8q1xp6fZlxvwygWJn1UFDjrmMXDrSE2tc6uDKNIDZtRErng0FRwvduckWMwYzn8CKuzcDfAvoCmBm7%2BjVysA%3D%3D%22&page=1&jsononly=1
json的最開頭有total和remain兩個引數,給出了目前所有可見評論剩餘數和總數,可以作為迴圈的停止條件。
但比較坑的一點是,脈脈並不能可見所有評論,而且評論是不斷重新整理的,所有如果爬完一頁迴圈到下一頁或者嘗試過很多次之後,他會提示你:
直接看的時候有這樣的提示會體驗很好,但對於爬蟲來說就不是很友好了,需要加個if判斷。
另外爬的太快,也會出錯,記得加time.sleep。
大概把能踩的坑都踩了,所以如果順利的話,每次只能爬幾百條資訊,想爬更多的話,需要過一段時間等資訊更新的差不多了再爬,程式碼如下
# -*- coding: utf-8 -*- """ Created on Fri Oct 19 18:50:03 2018 """ import urllib import requests from fake_useragent import UserAgent import json import pandas as pd import time import datetime #comment_api = 'https://maimai.cn/sdk/web/gossip_list?u=206793936&channel=www&version=4.0.0&_csrf=7ZRpwOSi-JHa7JrTECXLA8njznQZVbi7d4Uo&access_token=1.b7e3acc5ef86e51a78f3410f99aa642a&uid=%22MRlTFjf812rF62rOeDhC6vAirs3A3wL6ApgZu%2Fo1crA%3D%22&token=%22xoNo1TZ8k28e0JTNFqyxlxg%2BdL%2BY6jtoUjKZwE3ke2IZ919o%2FAUeOvcX2yA03CAx8CKuzcDfAvoCmBm7%2BjVysA%3D%3D%22&page={}&jsononly=1' # 傳送get請求 comment_api = 'https://maimai.cn/sdk/web/gossip_list?u=206793936&channel=www&version=4.0.0&_csrf=FfHZIyBb-H4LEs35NcyhyoAvRM7OkMRB0Jpo&access_token=1.0d4c87c687410a15810ee6304e1cd53b&uid=%22MRlTFjf812rF62rOeDhC6vAirs3A3wL6ApgZu%2Fo1crA%3D%22&token=%22G7rGLEqmm1wY0HP4q%2BxpPFCDj%2BHqGJFm0mSa%2BxpqPg47egJdXL%2FriMlMlHuQj%2BgM8CKuzcDfAvoCmBm7%2BjVysA%3D%3D%22&page={}&jsononly=1' """ author:作者 text:評論 cmts :評論數 circles_views:被檢視數 spread :轉發數 likes :點贊數 time : 時間 """ headers = { "User-Agent": UserAgent(verify_ssl=False).random} j = 0 k = 0 response_comment = requests.get(comment_api.format(0),headers = headers) json_comment = response_comment.text json_comment = json.loads(json_comment) num = json_comment['total'] cols = ['author','text','cmts','likes','circles_views','spreads','time'] dataall = pd.DataFrame(index = range(num),columns = cols) remain = json_comment['remain'] print(remain) while remain!= 0 : n = json_comment['count'] for i in range(n): if json_comment['data'][i]['text'] !='下面內容已經看過了,點此重新整理': dataall.loc[j,'author'] = json_comment['data'][i]['author'] dataall.loc[j,'text'] = json_comment['data'][i]['text'] dataall.loc[j,'cmts'] = json_comment['data'][i]['cmts'] dataall.loc[j,'likes'] = json_comment['data'][i]['likes'] dataall.loc[j,'circles_views'] = json_comment['data'][i]['circles_views'] dataall.loc[j,'spreads'] = json_comment['data'][i]['spreads'] dataall.loc[j,'time'] = json_comment['data'][i]['time'] j+= 1 else: k = -1 break k+= 1 comment_api1 = comment_api.format(k) response_comment = requests.get(comment_api1,headers = headers) json_comment = response_comment.text json_comment = json.loads(json_comment) remain = json_comment['remain'] print('已完成 {}% !'.format(round(j/num*100,2))) time.sleep(3) dataall = dataall.dropna() dataall = dataall.drop_duplicates() dataall.to_csv('data_20181216_part3.csv',index = False)
資料視覺化
就這樣斷斷續續爬了一堆檔案去重之後,得到了4027條資料,格式如下
接下來對爬到的資料做一些簡單的分析。因為並不沒有爬到全量評論,只是一個小樣本,所以結果肯定是有偏的,但爬的時間很隨機,而且前前後後爬了兩週多,這樣選樣也比較隨機,還是有一定的代表性。
脈脈中發言使用者有兩類,一類是完全匿名的,用系統生成的暱稱,一類顯示為xx公司員工,我們統計爬到的樣本中這兩種使用者的數量及發帖量。4027條職言中,不同發帖人共計1100名。
匿名發帖人超過70%,大家都並不願意用真實身份發言,畢竟被公司/學校人肉風險還是很高的。
發帖數也毫無意外,匿名發帖人貢獻了85%以上的帖子。
匿名發帖人無法獲取更細緻的資料,但對於那些不匿名的發帖人,可以獲取他們所在公司 資訊,將發帖數按公司彙總,看各大企業發帖量,可以作為整體的一個估計。統計時已經考慮了公司名稱輸入不一致的情況,將螞蟻金服、支付寶等替換成了阿里巴巴,京東金融等替換成京東,今日頭條、抖音等替換為位元組跳動,取發帖數TOP20。
可以看到,發帖人大多來自網際網路企業,金融、地產等其他企業相對較少。
文字分析
對於轉發、評論數、點贊數,因為有爬取時間上的差異,所以不好直接比較,給出評論數最多的前5條評論,看看大家最願意參與的話題是什麼。
- 用一個字概括一下你的2018年。(1659條評論)
- 【再就業求助帖】本人是剛被優化掉的知乎程式設計師,工作3年。比較想去BAT等大廠,希望貴廠HR們帶公司認證來回復一下,發一發真實有hc的崗位,祝願兄弟們都能找到新工作。(610條評論)
- 用兩個字概括你現在的工作。(477條評論)
- 網易漲今年薪漲了50%.....公司是發財了嗎?(458條評論)
- 用2個字總結你的工作。(415條評論)
1,4,5都是蠻有意思的問題,我們把1,4,5的評論都爬下來,做成詞雲,看看大家都在說些什麼。
用一個字概括你的2018年
爬蟲過程跟上面基本是一樣的,找到json,不過這個可以爬到全部評論。
# -*- coding: utf-8 -*- """ Created on Fri Oct 19 18:50:03 2018 """ import urllib import requests from fake_useragent import UserAgent import json import pandas as pd import time # 傳送get請求 comment_api = 'https://maimai.cn/sdk/web/gossip/getcmts?gid=18606987&page={}&count=50&hotcmts_limit_count=1&u=206793936&channel=www&version=4.0.0&_csrf=38244DlN-X0iNIk6A4seLXFx6hz3Ds6wfQ0Y&access_token=1.9ff1c9df8547b2b2c62bf58b28e84b97&uid=%22MRlTFjf812rF62rOeDhC6vAirs3A3wL6ApgZu%2Fo1crA%3D%22&token=%22rE8q1xp6fZlxvwygWJn1UFDjrmMXDrSE2tc6uDKNIDZtRErng0FRwvduckWMwYzn8CKuzcDfAvoCmBm7%2BjVysA%3D%3D%22' """ author:作者 text:評論 、 """ #headers = { "User-Agent": UserAgent(verify_ssl=False).random,'Cookie':cookie} headers = { "User-Agent": UserAgent(verify_ssl=False).random} j = 0 k = 0 response_comment = requests.get(comment_api.format(0),headers = headers) json_comment = response_comment.text json_comment = json.loads(json_comment) num = json_comment['total'] cols = ['author','text'] dataall = pd.DataFrame(index = range(num),columns = cols) while j < num : n = json_comment['count'] for i in range(n): dataall.loc[j,'author'] = json_comment['comments'][i]['name'] dataall.loc[j,'text'] = json_comment['comments'][i]['text'] j+= 1 k += 1 comment_api1 = comment_api.format(k) response_comment = requests.get(comment_api1,headers = headers) json_comment = response_comment.text json_comment = json.loads(json_comment) print('已完成 {}% !'.format(round(j/num*100,2))) time.sleep(3) dataall.to_excel('用一個字概括你的2018年.xlsx')
爬下來之後,刪掉超過一個字的評論,按詞頻確定大小,做詞雲圖如下
用兩個字概括你現在的工作|用2個字總結你的工作
2,5是一樣的,爬下來合併到一起後分析。程式碼不再重複,實際上用上面那段程式碼,找到json地址後替換,任何一個話題下的評論都可以全爬到,刪掉不是2個字的評論後根據詞頻作圖。
使用SnowNLP對評論進行情感分析,最終4027條中,積極的有2196條,消極的有1831條。
積極
消極
模型對大部分評論的情感傾向判斷的比較準確,小部分有誤。
最後對所有評論提取關鍵詞做詞雲收尾。