1. 程式人生 > >Spark Streaming實時流處理專案實戰 慕課知識點總結

Spark Streaming實時流處理專案實戰 慕課知識點總結

一直比較推崇學習的時候帶著問題去思考

1 Spark transformation和action的區別

簡介:
1,transformation是得到一個新的RDD,方式很多,比如從資料來源生成一個新的RDD,從RDD生成一個新的RDD

2,action是得到一個值,或者一個結果(直接將RDDcache到記憶體中)

所有的transformation都是採用的懶策略,就是如果只是將transformation提交是不會執行計算的,計算只有在action被提交的時候才被觸發。

transformation操作:

 map(func):對呼叫map的RDD資料集中的每個element都使用func,然後返回一個新的RDD,這個返回的資料集是分散式的資料集

  filter(func): 對呼叫filter的RDD資料集中的每個元素都使用func,然後返回一個包含使func為true的元素構成的RDD

flatMap(func):和map差不多,但是flatMap生成的是多個結果

mapPartitions(func):和map很像,但是map是每個element,而mapPartitions是每個partition

mapPartitionsWithSplit(func):和mapPartitions很像,但是func作用的是其中一個split上,所以func中應該有index

sample(withReplacement,faction,seed):抽樣

union(otherDataset):返回一個新的dataset,包含源dataset和給定dataset的元素的集合

distinct([numTasks]):返回一個新的dataset,這個dataset含有的是源dataset中的distinct的element

groupByKey(numTasks):返回(K,Seq[V]),也就是hadoop中reduce函式接受的key-valuelist

reduceByKey(func,[numTasks]):就是用一個給定的reducefunc再作用在groupByKey產生的(K,Seq[V]),比如求和,求平均數

sortByKey([ascending],[numTasks]):按照key來進行排序,是升序還是降序,ascending是boolean型別

join(otherDataset,[numTasks]):當有兩個KV的dataset(K,V)和(K,W),返回的是(K,(V,W))的dataset,numTasks為併發的任務數

cogroup(otherDataset,[numTasks]):當有兩個KV的dataset(K,V)和(K,W),返回的是(K,Seq[V],Seq[W])的dataset,numTasks為併發的任務數

cartesian(otherDataset):笛卡爾積就是m*n,大家懂的

action操作:


reduce(func):說白了就是聚集,但是傳入的函式是兩個引數輸入返回一個值,這個函式必須是滿足交換律和結合律的

collect():一般在filter或者足夠小的結果的時候,再用collect封裝返回一個數組

count():返回的是dataset中的element的個數

first():返回的是dataset中的第一個元素

take(n):返回前n個elements,這個士driverprogram返回的

takeSample(withReplacement,num,seed):抽樣返回一個dataset中的num個元素,隨機種子seed

saveAsTextFile(path):把dataset寫到一個textfile中,或者hdfs,或者hdfs支援的檔案系統中,spark把每條記錄都轉換為一行記錄,然後寫到file中

saveAsSequenceFile(path):只能用在key-value對上,然後生成SequenceFile寫到本地或者hadoop檔案系統

countByKey():返回的是key對應的個數的一個map,作用於一個RDD

foreach(func):對dataset中的每個元素都使用func
 

 

 

 

 

 

方法