1. 程式人生 > >圖解Hadoop和MongoDB的MapReduce資料處理過程

圖解Hadoop和MongoDB的MapReduce資料處理過程

下圖是Hadoop中一個很經典的例子計算文字中單詞個數。

在Hadoop的MapReduce中,其實還有一個Shuffle過程。Map過程和C++ STL中的Map一樣,把每個單詞做成一個對映,單詞作為鍵,單詞個數為值。然後經過Shuffle過程,把對映裡面的值做成一個對映列表。最後經過Reduce統計單詞的個數。 

至於MongoDB中的MapReduce就相對比較簡單一些,因為MongDB是基於json文字格式的NoSQL資料庫,裡面的所有資料都使用json的格式進行儲存。下圖相信大家也能看懂了,就不解釋了。