大資料之nginx+js點選流日誌採集服務部署詳解
點選流日誌採集服務部署
1、伺服器中安裝依賴
yum -y install gcc perl pcre-devel openssl openssl-devel
2、上傳LuaJIT-2.0.4.tar.gz並安裝LuaJIT
tar -zxvf LuaJIT-2.0.4.tar.gz -C /usr/local/src/
cd /usr/local/src/LuaJIT-2.0.4/
make && make install PREFIX=/usr/local/luajit
3、設定LuaJIT環境變數
vi /etc/profile 新增如下內容:
export LUAJIT_LIB=/usr/local/luajit/lib
export LUAJIT_INC=/usr/local/luajit/include/luajit-2.0
source /etc/profile
4、建立modules儲存nginx的模組
mkdir -p /usr/local/nginx/modules
5、上傳依賴的模組
Ø set-misc-nginx-module-0.29.tar.gz
Ø lua-nginx-module-0.10.0.tar.gz
Ø ngx_devel_kit-0.2.19.tar.gz
Ø echo-nginx-module-0.58.tar.gz
6、將依賴的模組直接解壓到/usr/local/nginx/modules目錄
tar -zxvf lua-nginx-module-0.10.0.tar.gz -C /usr/local/nginx/modules/
tar -zxvf set-misc-nginx-module-0.29.tar.gz -C /usr/local/nginx/modules/
tar -zxvf ngx_devel_kit-0.2.19.tar.gz -C /usr/local/nginx/modules/
tar -zxvf echo-nginx-module-0.58.tar.gz -C /usr/local/nginx/modules/
不需要編譯安裝
7、安裝openresty
下載對應的安裝包:openresty-1.9.7.3.tar.gz
解壓:tar -zxvf openresty-1.9.7.3.tar.gz -C /usr/local/src/
編譯安裝openresty:
cd /usr/local/src/openresty-1.9.7.3/
執行命令:
./configure --prefix=/usr/local/openresty --with-luajit && make && make install
8、安裝nginx
下載對應的安裝包:nginx-1.8.1.tar.gz
解壓:tar -zxvf nginx-1.8.1.tar.gz -C /usr/local/src/
9、編譯nginx並支援其他模組
進入到nginx的安裝目錄 cd /usr/local/src/nginx-1.8.1/
執行如下命令:
./configure --prefix=/usr/local/nginx \
--with-ld-opt="-Wl,-rpath,/usr/local/luajit/lib" \
--add-module=/usr/local/nginx/modules/ngx_devel_kit-0.2.19 \
--add-module=/usr/local/nginx/modules/lua-nginx-module-0.10.0 \
--add-module=/usr/local/nginx/modules/set-misc-nginx-module-0.29 \
--add-module=/usr/local/nginx/modules/echo-nginx-module-0.58
make -j2
make install
10、修改nginx的配置檔案
worker_processes 2; events { worker_connections 1024; } http { include mime.types; default_type application/octet-stream; log_format tick "$msec^A$remote_addr^A$u_domain^A$u_url^A$u_title^A$u_referrer^A$u_sh^A$u_sw^A$u_cd^A$u_lang^A$http_user_agent^A$u_utrace^A$u_account"; access_log logs/access.log tick; sendfile on; keepalive_timeout 65; server { listen 80; server_name localhost; location /1.gif { #偽裝成gif檔案 default_type image/gif; #本身關閉access_log,通過subrequest記錄log access_log off; access_by_lua " -- 使用者跟蹤cookie名為__utrace local uid = ngx.var.cookie___utrace if not uid then -- 如果沒有則生成一個跟蹤cookie,演算法為md5(時間戳+IP+客戶端資訊) uid = ngx.md5(ngx.now() .. ngx.var.remote_addr .. ngx.var.http_user_agent) end ngx.header['Set-Cookie'] = {'__utrace=' .. uid .. '; path=/'} if ngx.var.arg_domain then -- 通過subrequest到/i-log記錄日誌,將引數和使用者跟蹤cookie帶過去 ngx.location.capture('/i-log?' .. ngx.var.args .. '&utrace=' .. uid) end "; #此請求不快取 add_header Expires "Fri, 01 Jan 1980 00:00:00 GMT"; add_header Pragma "no-cache"; add_header Cache-Control "no-cache, max-age=0, must-revalidate"; #返回一個1×1的空gif圖片 empty_gif; } location /i-log { #內部location,不允許外部直接訪問 internal; #設定變數,注意需要unescape set_unescape_uri $u_domain $arg_domain; set_unescape_uri $u_url $arg_url; set_unescape_uri $u_title $arg_title; set_unescape_uri $u_referrer $arg_referrer; set_unescape_uri $u_sh $arg_sh; set_unescape_uri $u_sw $arg_sw; set_unescape_uri $u_cd $arg_cd; set_unescape_uri $u_lang $arg_lang; set_unescape_uri $u_utrace $arg_utrace; set_unescape_uri $u_account $arg_account; #開啟日誌 log_subrequest on; #記錄日誌到ma.log,實際應用中最好加buffer,格式為tick access_log /var/nginx_logs/ma.log tick; #輸出空字串 echo ''; } } } |
11、修改在nginx所在的伺服器上新增一個ma.js
ma.js內容如下:
(function () { var params = {}; //Document物件資料 if(document) { params.domain = document.domain || ''; params.url = document.URL || ''; params.title = document.title || ''; params.referrer = document.referrer || ''; } //Window物件資料 if(window && window.screen) { params.sh = window.screen.height || 0; params.sw = window.screen.width || 0; params.cd = window.screen.colorDepth || 0; } //navigator物件資料 if(navigator) { params.lang = navigator.language || ''; } //解析_maq配置 if(_maq) { for(var i in _maq) { switch(_maq[i][0]) { case '_setAccount': params.account = _maq[i][1]; break; default: break; } } } //拼接引數串 var args = ''; for(var i in params) { if(args != '') { args += '&'; } args += i + '=' + encodeURIComponent(params[i]); } //通過Image物件請求後端指令碼 var img = new Image(1, 1); img.src = 'http://xxx.xxx.xxx.xxx/log.gif?' + args; })(); |
12、在要統計的頁面新增js指令碼
<script type="text/javascript"> var _maq = _maq || []; _maq.push(['_setAccount', 'zx5352']); (function() { var ma = document.createElement('script'); ma.type = 'text/javascript'; ma.async = true; ma.src = 'http://xxx.xxx.xxx.xxx/ma.js'; var s = document.getElementsByTagName('script')[0]; s.parentNode.insertBefore(ma, s); })(); </script> |
13、啟動nginx
cd /usr/local/nginx 目錄
執行命令 sbin/nginx -c conf/nginx.conf 啟動nginc服務
檢驗啟動是否成功:
(1)ps -ef | grep nginx 檢視是否有nginx對應的程序
(2) netstat -nlp 檢視80埠是否起來
通過遊覽器訪問對應的web介面 http//xxx.xxx.xxx.xxx:80
並且觀察日誌採集檔案是否有對應的內容輸出
tail -f /var/nginx_logs/ma.log
tail -f logs/access.log
相關推薦
大資料之nginx+js點選流日誌採集服務部署詳解
點選流日誌採集服務部署 1、伺服器中安裝依賴 yum -y install gcc perl pcre-devel openssl openssl-devel 2、上傳LuaJIT-2.0.4.tar.gz並安裝LuaJIT tar -zxvf LuaJIT-2.0.4.
大資料學習——點選流日誌每天都10T,在業務應用伺服器上,需要準實時上傳至(Hadoop HDFS)上
點選流日誌每天都10T,在業務應用伺服器上,需要準實時上傳至(Hadoop HDFS)上 1需求說明 點選流日誌每天都10T,在業務應用伺服器上,需要準實時上傳至(Hadoop HDFS)上 2需求分析 一般上傳檔案都是在凌晨24點操作,由於很多種類的業務資料都要在晚上進行傳輸,為了減輕伺服器的壓力,
大資料之nginx的安裝和使用
一:下載相關的軟體 二 :安裝:也是先解壓到指定的資料夾 三:檢查安裝環境,並指定將來要安裝的路徑 命令語句:./configure --prefix=/usr/local/nginx 四:執行上面的命令語句之後會報錯:這是對於安裝的是迷你版的xshell來說,如果是完整版的請略過 #缺包報錯 ./
Hadoop實戰: 論壇點選流日誌分析
簡介 網站點選流日誌資料,比如,點選了哪一個連結,在哪個網頁停留時間最多,採用了哪個搜尋項、總體瀏覽時間等。而所有這些資訊都可被儲存在網站日誌中。通過分析這些資料,可以獲知許多對網站運營至關重要的資訊。採集的資料越全面,分析就能越精準。專案主要使用的技術有Map
web點選流日誌分析系統實戰專案
微信公眾號:大資料小世界 專案介紹 在PC時代,營銷的核心是購買,在移動網際網路時代,其核心是如何實現使用者個性化互動,對使用者傳播更為精準化的內容,而實現這一核心的基礎就是對資料的管理和分析——資料驅動型商業模型。 各類網際網路服務產品(如網站、APP)都可
大資料教程(8.8)MR內部的shuffle過程詳解&combiner的執行機制及程式碼實現
之前的文章已經簡單介紹過mapreduce的運作流程,不過其內部的shuffle過程並未深入講解;本篇部落格將分享shuffle的全過程。
大資料教程(8.8)MR內部的shuffle過程詳解&combiner的執行機制及程式碼實現
之前的文章已經簡單介紹過mapreduce的運作流程,不過其內部的shuffle過程並未深入講解;本篇部落格將分享shuffle的全過程。
網站點選流資料分析
網站點選流資料分析: 1. WEB訪問日誌,即指使用者訪問網站時的所有訪問、瀏覽、點選行為資料。比如點選了哪一個連結,在哪個網頁停留時間最多,採用了哪個搜尋項、總體瀏覽時間等。而所有這些資訊都可被儲存在網站日誌中。通過分析這些資料,可以獲知許多對網站運營至關重要的資訊。採集的資料越全面,分析就能
【網站點選流資料分析】05-資料倉庫設計
採用星型模型 1、事實表 原始資料表:t_origin_weblog valid string 是否有效
【網站點選流資料分析】06-ETL
該專案的資料分析過程在hadoop叢集上實現,主要應用hive資料倉庫工具,因此,採集並經過預處理後的資料,需要載入到hive資料倉庫中,以進行後續的挖掘分析。 1、建立原始資料表 在hive倉庫中建貼源資料表 drop table if exists ods_webl
網站點選流資料分析專案
什麼是點選流資料 1.1.1 WEB訪問日誌 即指使用者訪問網站時的所有訪問、瀏覽、點選行為資料。比如點選了哪一個連結,在哪個網頁停留時間最多,採用了哪個搜尋項、總體瀏覽時間等。而所有這些資訊都可被儲存在網站日誌中。通過分析這些資料,可以獲知許多對網站運營至
魅族大資料之流平臺設計部署實踐
導讀:魅族大資料的流平臺系統擁有自設計的採集SDK,自設計支援多種資料來源採集的Agent元件,還結合了Flume、Spark、Metaq、Storm、Kafka、Hadoop等技術元件,本文就魅族流平臺對大量資料的採集、實時計算、系統分析方法,全球多機房
Android開發之--縮圖點選檢視大圖
android中點選縮圖檢視大圖的方法一般有兩種,一種是想新浪微博list頁面那樣,彈出一個視窗顯示大圖(原activity為背景)。另一種就是直接開啟一個新的activity顯示大圖。1、第一種方法我們可以使用自定義的AlertDialog來實現,程式碼如下: ImageView image=(Imag
WebView注入Js程式碼實現大圖自適應螢幕點選圖片預覽詳情
開題:android中webview通過url載入網頁時,如果web頁恰巧沒對手機做單獨適配的話,那我們拿到的url直接通過loadUrl的方式載入到webview上很容易出現一些適配上的問題,即使你通過websetings設定網頁自適應,也很難處理部分細節上的樣式,特別
JS 點選事件onclick:點選物件小區域顏色,大區域顏色改變
<!DOCTYPE html> <html> <head> <meta charset="UTF-8"> <
21、大資料之工作流排程器Azkaban
use default;drop table aztest;create table aztest(id int,name string) row format delimited fields terminated by ',';load data inpath '/aztest/hiveinput' in
js點選收縮展開文字
<!doctype html> <html lang="en"> <head> <meta charset="UTF-8" /> <title>js點選收縮展開
Android之按鍵防止點選過快的方法
public class UtilFastClick { // 兩次點選按鈕之間的點選間隔不能少於1000毫秒 private static final int MIN_CLICK_DELAY_TIME = 1000; private static long lastCl
js點選圖片放大
HTML程式碼: 1 <img id="img0" src="" style="padding-right:10px; " /> 2 3 <div id="myModal" class="modal"> 4 <!-- 關閉按鈕
JS點選複製文字
html 1 <p>邀請碼:<i>999999999999</i> <span class="copys">複製</span> </p> 2 <textarea rows="" style="disp