1. 程式人生 > >分散式爬蟲處理Redis和MySQL裡的資料操作步驟

分散式爬蟲處理Redis和MySQL裡的資料操作步驟

這篇文章主要介紹了分散式爬蟲處理Redis裡的資料操作步驟,資料分別存入mongodb和mysql資料庫

存入MongoDB

1.啟動MongoDB資料庫:sudo mongod

2.執行下面程式:py2 process_youyuan_mongodb.py

# process_youyuan_mongodb.py
# -*- coding: utf-8 -*-
import json
import redis
import pymongo
def main():
 # 指定Redis資料庫資訊
 rediscli = redis.StrictRedis(host='192.168.199.108', port=6379, db=0)
 # 指定MongoDB資料庫資訊
 mongocli = pymongo.MongoClient(host='localhost', port=27017)
 # 建立資料庫名
 db = mongocli['youyuan']
 # 建立表名
 sheet = db['beijing_18_25']
 while True:
 # FIFO模式為 blpop,LIFO模式為 brpop,獲取鍵值
 source, data = rediscli.blpop(["youyuan:items"])
 item = json.loads(data)
 sheet.insert(item)
 try:
  print u"Processing: %(name)s <%(link)s>" % item
 except KeyError:
  print u"Error procesing: %r" % item
if __name__ == '__main__':
 main()

存入 MySQL

1.啟動mysql:mysql.server start(更平臺不一樣)

2.登入到root使用者:mysql -uroot -p

3.建立資料庫youyuan:create database youyuan;

4.切換到指定資料庫:use youyuan

5.建立表beijing_18_25以及所有欄位的列名和資料型別。

6.執行下面程式:py2 process_youyuan_mysql.py

#process_youyuan_mysql.py
# -*- coding: utf-8 -*-
import json
import redis
import MySQLdb
def main():
 # 指定redis資料庫資訊
 rediscli = redis.StrictRedis(host='192.168.199.108', port = 6379, db = 0)
 # 指定mysql資料庫
 mysqlcli = MySQLdb.connect(host='127.0.0.1', user='power', passwd='xxxxxxx', db = 'youyuan', port=3306, use_unicode=True)
 while True:
 # FIFO模式為 blpop,LIFO模式為 brpop,獲取鍵值
 source, data = rediscli.blpop(["youyuan:items"])
 item = json.loads(data)
 try:
  # 使用cursor()方法獲取操作遊標
  cur = mysqlcli.cursor()
  # 使用execute方法執行SQL INSERT語句
  cur.execute("INSERT INTO beijing_18_25 (username, crawled, age, spider, header_url, source, pic_urls, monologue, source_url) VALUES (%s, %s, %s, %s, %s, %s, %s, %s, %s )", [item['username'], item['crawled'], item['age'], item['spider'], item['header_url'], item['source'], item['pic_urls'], item['monologue'], item['source_url']])
  # 提交sql事務
  mysqlcli.commit()
  #關閉本次操作
  cur.close()
  print "inserted %s" % item['source_url']
 except MySQLdb.Error,e:
  print "Mysql Error %d: %s" % (e.args[0], e.args[1])
if __name__ == '__main__':
 main()

總結

以上所述是小編給大家介紹的分散式爬蟲處理Redis裡的資料操作步驟,希望對大家有所幫助