1. 程式人生 > >最新大資料24期實戰專案 9天 附課件原始碼(完整版)

最新大資料24期實戰專案 9天 附課件原始碼(完整版)

課程目錄: 第一天: 01.傳統廣告回顧 02.幾個問題思考 03.廣告的表現形式 04.名詞解釋 05.DSP原理圖 06.DSP業務流程 07.DMP專案背景 08.DMP業務流程----重要 09.日誌格式介紹 10.需求一日誌轉parquet檔案 第二天: 01.工程包的建立 02.日誌轉parquet檔案實現方式一----StructType 03.日誌轉換成parquet檔案格式實現方式二---自定義類 04.統計各省市的資料量分佈情況----結果輸出成json 05.統計各省市的資料量分佈情況----結果輸出到mysql中 06.統計各省市的資料量分佈情況----使用Spark運算元的方式實現 07.地域分佈需求 第三天: 00.Ambari介紹及專案打包上傳 00.叢集執行Job觀察01 00.叢集執行Job觀察02 01.地域報表實現---Spark SQL 02.地域報表實現---Spark Core實現01 03.地域報表實現---Spark Core實現02 03.地域報表實現---讀取原始日誌檔案 04.媒體報表需求 05.媒體報表實現---broadcast 06.媒體報表實現---改造---字典存入到redis 07.媒體報表實現---改造---將redis作為字典庫 08.程式碼託管到git 第四天: 01.git建立分支--合併分支--切換分支--刪除分支 02.上下文標籤需求 第五天: 01.標籤實現過程--step1 02.標籤實現過程--step2 03.標籤實現過程--step3 04.標籤實現過程--step4 05.商圈標籤實現思路 第六天: 01.經緯度知識庫的建立-StepOne 02.經緯度知識庫的建立-StepTwo 03.新增商圈標籤 04.商圈標籤bug解決 05.graph共同好友案例 06.graph解決使用者當天標籤合併 第七天: 01.案例聚合使用者標籤 02.案例聚合使用者標籤--程式碼實現 03.案例聚合使用者標籤--程式碼實現--測試 04.上下文標籤資料合併 05.專案總結 第八天: 01.中國移動實時專案背景 02.專案整體業務架構圖 03.flume節點及資料量分佈 04.需求 05.日誌欄位說明 06.ScalikeJDBC介紹 第九天: 01.建立kafka -- topic 02.將資料對接到kafka 03.工程搭建--思路分析 04.程式碼實現-01---kafka偏移量有效性問題 05.程式碼實現-02---校驗更新偏移量 06.程式碼實現--03--測試接收資料 07.程式碼實現--04---業務概況指標實現 08.程式碼實現--05---分割槽資料處理 09.程式碼實現--06---省市資料分佈---每小時資料分佈---每分鐘資料分佈 10.程式碼實現--07---偏移量有效性檢驗觀察 11.Echarts展示 12.面試時的專案表述 13.面試問題補充下載地址:

百度網盤