1. 程式人生 > >Spark Streaming實時流處理專案實戰

Spark Streaming實時流處理專案實戰

  • 12-1 -課程目錄
  • 12-2 -需求說明
  • 12-3 -使用者行為日誌介紹
  • 12-4 -Python日誌產生器開發之產生訪問url和ip資訊
  • 12-5 -Python日誌產生器開發之產生referer和狀態碼資訊
  • 12-6 -Python日誌產生器開發之產生日誌訪問時間
  • 12-7 -Python日誌產生器伺服器測試並將日誌寫入到檔案中
  • 12-8 -通過定時排程工具每一分鐘產生一批資料
  • 12-9 -使用Flume實時收集日誌資訊
  • 12-10 -對接實時日誌資料到Kafka並輸出到控制檯測試
  • 12-11 -Spark Streaming對接Kafka的資料進行消費
  • 12-12 -使用Spark Streaming完成資料清洗操作
  • 12-13 -功能一之需求分析及儲存結果技術選型分析
  • 12-14 -功能一之資料庫訪問DAO層方法定義
  • 12-15 -功能一之HBase操作工具類開發
  • 12-16 -功能一之資料庫訪問DAO層方法實現
  • 12-17 -功能一之將Spark Streaming的處理結果寫入到HBase中
  • 12-18 -功能二之需求分析及HBase設計&HBase資料訪問層開發
  • 12-19 -功能二之功能實現及本地測試
  • 12-20 -將專案執行在伺服器環境中