1. 程式人生 > >spark wordcont Spark: sortBy和sortByKey函數詳解

spark wordcont Spark: sortBy和sortByKey函數詳解

link log 場景 count ive red data- 進行 air

   val res =  sc.textFile("D:\\test\\spark\\urlCount").flatMap(_.split("\\s"))
     .map((_,1)).reduceByKey(_+_).map(t=>(t._2,t._1)).sortByKey().top(10)

在很多應用場景都需要對結果數據進行排序,Spark中有時也不例外。在Spark中存在兩種對RDD進行排序的函數,分別是 sortBy和sortByKey函數。sortBy是對標準的RDD進行排序,它是從Spark 0.9.0之後才引入的(可以參見SPARK-1063)。而sortByKey函數是對PairRDD進行排序,也就是有Key和Value的RDD。下面將分別對這兩個函數的實現以及使用進行說明。

當組成keyval對之後只能用sortBykey實現了

spark wordcont Spark: sortBy和sortByKey函數詳解