1. 程式人生 > >五個頂級的大數據架構----大數據程序員必修課

五個頂級的大數據架構----大數據程序員必修課

歸檔 化工 新分區 適合 擴展 業務 靈活性 狀態 ble

自從像AWS這樣的公共雲產品開辟了大數據分析功能以來,小企業通過挖掘大量的數據做到只有大企業才能做到的事情,至今大約有10年時間。這些事情其中包括網絡日誌、客戶購買記錄等,並通過按使需付費的方式提供低成本的商品集群。
技術分享圖片

自從像AWS這樣的公共雲產品開辟了大數據分析功能以來,小企業通過挖掘大量的數據做到只有大企業才能做到的事情,至今大約有10年時間。這些事情其中包括網絡日誌、客戶購買記錄等,並通過按使需付費的方式提供低成本的商品集群。在這十年中,這些產品蓬勃發展,涵蓋了從實時(亞秒級延遲)流媒體式分析到用於分析批量模式工作的企業數據倉庫,而企業數據倉庫則可能需要數天或數周才能完成。很多初學者,對大數據的概念都是模糊不清的,大數據是什麽,能做什麽,學的時候,該按照什麽線路去學習,學完往哪方面發展,想深入了解,想學習的同學歡迎加入大數據學習qq群:458345782,有大量幹貨(零基礎以及進階的經典實戰)分享給大家,並且有清華大學畢業的資深大數據講師給大家免費授課,給大家分享目前國內最完整的大數據高端實戰實用學習流程體系。

以下將介紹用於大數據堆棧的五個最有用的架構,以及每個架構的優點,以便更好地理解和權衡。此外,還對成本(按$ - $$$$$的規模)、何時使用、熱門產品,以及每種架構的提示和技巧進行了闡述。

|| 五個大數據架構

在此並沒有什麽特別的順序,用戶在AWS公共雲旅程中可能遇到的五個頂級大數據架構是:

?流媒體- 允許攝取(並可能分析)任務關鍵型實時數據,這些數據可能會以爆發的形式出現在用戶面前。

?通用(或特定)的批處理集群—在可擴展、經濟高效的集群中提供通用存儲和計算功能,可以執行其他四種架構的任何和所有功能。

?NoSQL引擎 - 使架構師能夠處理“3V” —高速度、高容量,以及底層數據的多樣性/可變性。

?企業數據倉庫(EDW) - 允許組織為多年的歷史數據維護一個單獨的數據庫,並對該數據運行各種長期運行的分析。

?就地分析 - 允許用戶將數據“就地”保存在低成本存儲引擎中,並針對該數據運行高性能的即席查詢,而無需創建單獨的、昂貴的“集群”。

(1)流媒體

流媒體解決方案由以下多個因素定義:

?關鍵任務數據—即使丟失一筆交易也會給用戶帶來災難性的後果。

?負載中的爆發尖峰——物聯網的基礎設施可能會從完全無聲的狀態轉變為同時與其通話設備中的一個。

?實時響應 - 高延遲響應對用戶來說可能是災難性的。

這裏有很多現實世界的例子,從特斯拉公司的電動汽車(基本上是移動的4G設備)不斷將汽車的位置發送到數據中心,通知司機下一個充電站在哪裏。此外,人們喜歡的日本一家高度自動化的壽司專營店:Sushiro。Sushiro所做的是將RFID傳感器放在每個壽司盤底,然後,壽司傳送帶上的傳感器跟蹤每個盤子的動態,將數據點發送到AWS Kinesis,其後端響應儀表板的更新,通知壽司廚師,例如“丟掉即將過期變質的食物,或者制作更多的雞蛋壽司,或者解凍更多的金槍魚”,通過使用流媒體技術,該連鎖店不僅有上述的實時效率推薦,而且還可以獲得每家餐廳的歷史信息,並且可以了解顧客購買的趨勢。

Sushiro是一個很好的例子,因為它符合流媒體的所有三個要求。其儀表板現在對業務運營至關重要。

?成本:$$ - $$$$$(通常為RAM密集型)

?適用性:任務關鍵型數據,負載爆發尖峰,實時響應。用戶需要構建KPI的實時儀表板。

?註意事項:獨立的流媒體解決方案的構建和維護成本很高。擴展可能具有挑戰性,特別是如果在EC2上構建。失敗對企業來說可能是災難性的,但大多數產品都提供故障保護,例如復制優化、備份和災難恢復,以避免這種情況。

?受歡迎的產品:Kinesis(托管服務),Kafka(基於EC2),Spark Streaming(作為托管服務和基於EC2)和Storm。

?提示和技巧:使用Kinesis作為初學者(易於使用、體積小、成本低)。許多組織轉向基於EC2的Kafka(如果他們只需要流媒體)或Spark Streaming,以獲得更好的控制,並降低大批量成本。這是AWS中為數不多的幾次托管任務,像Kinesis這樣的托管服務最終會比基於EC2的Kafka解決方案花費更多的費用。

(2)通用(或特定)的批處理集群

使用Hadoop/Spark這些系統,用戶可以獲得高度可擴展、低成本(商用硬件和開源軟件)存儲和計算,這些存儲和計算可能會遇到大量問題,從而以盡可能低的成本對數據進行批量分析。

Hadoop技術非常成熟,提供了一個非常豐富的軟件生態系統,可以利用這些通用計算和存儲資源提供從數據倉庫到流媒體,甚至NoSQL的所有內容。

在Hadoop之上,現在可以運行Spark,它帶有自己的可擴展框架,以低延遲(高內存)方式提供上述所有功能,甚至適用於流媒體和NoSQL。

?成本:$ - $$$$(高度依賴於內存需求)

?適用性:最低成本、最大靈活性。如果希望采用一個集群完成所有任務,並從Hadoop或Spark內部部署轉移,那麽這是一個不錯的選擇,非常適合機器學習。

?註意事項:一個全能的系統很少把每件事都做好,但這可以通過使用Spark和為每個工作量身定制的集群來大大減輕工作負荷。

?熱門產品:EMR(托管服務,也將運行Spark),Cloudera(基於EC2),Hortonworks(通過EMR作為托管服務,基於EC2)。

?提示和技巧:在S3存儲桶中長期存儲源數據,構建集群,並根據需要將數據加載到集群中,然後在分析任務完成後立即關閉所有數據。這實際上正是默認情況下EMR的工作原理,但即使使用的是Cloudera或Hortonworks(現在功能幾乎相同),也可以輕松編寫上述所有內容。利用EC2現場實例可以節省80%-90%的成本,並檢查自己的分析,以便可以向上或向下旋轉集群。以利用成本最低的spot窗口。

(3)NoSQL引擎

Velocity(並發事務)在這裏特別重要,這些引擎被設計為處理任意數量的並發讀寫。雖然其他系統通常不能用於最終用戶(需要低延遲響應)和員工分析團隊(可能會使用長時間運行的查詢鎖定多個表),同時,NoSQL引擎可以擴展以適應一個系統的兩個主服務器。一些開發允許以低延遲方式實時加入和查詢該數據。

?成本:$$ - $$$(通常為內存密集型)

?適用性:“3V”問題。簡單和/或快速變化的數據模型。需要構建KPI的實時儀表板。

?警告:必須放棄交易和豐富多樣的SQL。由於它不使用SQL,因此無法使用Tableau和Microstrategy等可視化工具直接查詢數據。擴展(尤其是添加新節點和重新平衡)可能很困難,並且會影響用戶延遲和系統可用性。

?受歡迎的產品:DynamoDB(托管服務),Neptune(托管服務,目前仍處於測試階段),Cassandra(基於EC2),CouchDB(基於EC2)和HBase(通過EMR作為托管服務,基於EC2)。

?提示和技巧:努力采用AWS管理的服務DynamoDB,而不是配置EC2並加載第三方系統。定期修剪最終用戶DynamoDB表,並在這些歷史表上創建每周或每月的表。使用Dynamic DynamoDB“自動調整”配置的容量,使其始終滿足消耗。使用DynamoDB Streams可以對客戶服務取消等關鍵事件進行實時響應,或者在第二個區域提供備份。

(4)企業數據倉庫(EDW)

企業數據倉庫(EDW)與此處提到的其他系統截然不同。它提供了人們稱之為“OLAP”(在線分析處理,可以支持來自內部用戶的一些長時間運行的查詢)與“OLTP”(在線事務處理,可以支持來自最終用戶的大量讀取和寫入)功能,如Oracle的RDBMS或MySQL。當然,可以使用OLTP系統作為企業數據倉庫(EDW),但是大多數人都將OLTP數據庫集中在最近用戶的低延遲,最近事件(如“跟蹤上周的訂單”)需求和定期(通常是每天)窗口更舊數據輸出到OLAP系統,業務用戶可以在數月或數年的數據中運行長時間的查詢。

這些OLAP系統使用諸如列式存儲、數據非規範化(創建具有幾乎無限維度的“數據立方體”)等策略,並提供RDBMS級ANSI 92 SQL依從性,這意味著可以完全訪問SQL功能,並且可以定制Tableau等可視化工具直接與他們合作。

?成本:$$ - $$$$$(通常需要大量節點來存儲和處理大量數據)。

?適用性:如果希望專門針對業務價值分析數據或構建KPI的實時儀表板。

?警告:確保團隊了解OLAP和OLTP之間的區別,並確保他們以正確的方式使用每個OLAP和OLTP。

?提示和技巧:與EMR/Hadoop一樣,只在需要時啟動集群,將源數據保存在S3存儲桶中(這實際上是Redshift默認工作的方式)。標記集群,以便用能夠以自動方式快速識別和關閉未使用的容量。考慮保留以控制成本。真正了解可用的不同節點類型(高存儲、高吞吐量)以便利用每個節點類型。采用本機加密,因為它可以將性能降低多達20%-25%。通過O‘Reilly課程深入了解Redshift,或考慮通過出色的“數據倉庫”課程進行面對面培訓,該課程幾乎完全涵蓋Redshift。
技術分享圖片
(5)就地分析

幾年前,Presto通過提供高性能的數據分析改變了遊戲規則,而無需將數據從原生的、低成本的長期存儲中移出。其最終結果是,可以簡單地運行查詢,而不是必須為昂貴的EMR或Redshift集群支付全部費用。而是只按使用的內容收費。

此外,人們需要很多時間來嘗試選擇(然後管理)EMR或Redshift集群的正確節點和節點數。采用Presto,人們不再知道也不關心這種差別,而這一切都在用戶需要的時候起到作用。

最後,Presto支持RDBMS級別的ANSI-92 SQL兼容性,這意味著所有可視化工具都可以直接使用它,具有的SQL背景可以在ad-hoc查詢中全面使用。

?費用:$ - $$

?適用性:成本極低。沒有任何管理。可以作為低成本、中等性能的企業數據倉庫(EDW)。它不需要將數據復制到第二個系統。大型連接和復雜分析效果很好。

?警告:需要最低延遲。為了獲得不錯的性能,可能會使用序列化格式Parquet、壓縮、重新分區等重新格式化存儲的數據。可能需要多輪查詢調整和/或重新格式化才能獲得正確的結果。目前不支持UDF或事務。

?熱門產品:AWS Athena(用於查詢S3數據的托管服務),EMR(托管服務-可以自動安裝Presto),自我管理的Presto(基於EC2–用戶永遠不想在AWS中執行此操作)。

?提示和技巧:只需使用Athena。利用AWS Glue構建ETL管道,以獲取原始數據,並將其重新格式化為S3或Athena可以更有效地使用的內容。使用S3生命周期策略將原有的數據移動到低成本的歸檔存儲(如Glacier)。

|| 把它們放在一起

通過了解將在公共雲中運行的五個頂級大數據架構,用戶現在可以獲得有關最佳應用位置的可操作信息,以及潛伏的位置。

一旦用戶開始在AWS公共雲中構建大數據架構,將很快了解到更多的架構,並且在很多情況下,企業可能會最終同時使用上述所有內容,可能使用Kinesis將客戶數據流媒體傳輸到DynamoDB和S3。用戶可能偶爾會在該源數據上啟動EMR(進行某些機器學習)或Redshift(分析KPI)集群,或者可以選擇以可以通過AWS Athena就地訪問的方式格式化數據,讓它像企業數據倉庫(EDW)一樣發揮作用。

很多初學者,對大數據的概念都是模糊不清的,大數據是什麽,能做什麽,學的時候,該按照什麽線路去學習,學完往哪方面發展,想深入了解,想學習的同學歡迎加入大數據學習qq群:458345782,有大量幹貨(零基礎以及進階的經典實戰)分享給大家,並且有清華大學畢業的資深大數據講師給大家免費授課,給大家分享目前國內最完整的大數據高端實戰實用學習流程體系。

五個頂級的大數據架構----大數據程序員必修課