1. 程式人生 > >n個數裡找出前m個數

n個數裡找出前m個數

引子
每年十一月各大IT公司都不約而同、爭後恐後地到各大高校進行全國巡迴招聘。與此同時,網上也開始出現大量筆試面試題;網上流傳的題目往往都很精巧,既能讓考查基礎知識,又在平淡中隱含了廣闊的天地供優秀學生馳騁。

這兩天在網上淘到一1道筆試題目(注1),雖然真假未知,但的確是道好題,題目如下:

       從10億個浮點數中找出最大的1萬個。

這是一道似易實難的題目,一般同學最容易中的陷阱就是沒有重視這個“億”字。因為有10億個單精度浮點數元素的陣列在32位平臺上已經達到3.7GB之巨,在常見計算機平臺(如Win32)上宣告一個這樣的陣列將導致堆疊溢位。正確的解決方法是分治法,比如每次處理100萬個數,然後再綜合起來。不過這不是本文要討論的主旨,所以本文把上題的10億改為1億,把浮點數改為整數,這樣可以直接地完成這個問題,有利於清晰地討論相關演算法的優化(注2)。

不假思索
拿到這道題,馬上就會想到的方法是建立一個數組把1億個數裝起來,然後用for迴圈遍歷這個陣列,找出最大的1萬個數來。原因很簡單,因為如果要找出最大的那個數,就是這樣解決的;而找最大的1萬個數,只是重複1萬遍而已。

template< class T >

void solution_1( T BigArr[], T ResArr[] )

{

       for( int i = 0; i < RES_ARR_SIZE; ++i )

       {

              int idx = i;

              for( int j = i+1; j < BIG_ARR_SIZE; ++j )

              {

                     if( BigArr[j] > BigArr[idx] )

                            idx = j;

              }

              ResArr[i] = BigArr[idx];

              std::swap( BigArr[idx], BigArr[i] );

       }

}

設BIG_ARR_SIZE = 1億,RES_ARR_SIZE = 1萬,執行以上演算法已經超過40分鐘(注3),遠遠超過我們的可接受範圍。

稍作思考
從上面的程式碼可以看出跟SelectSort演算法的核心程式碼是一樣的。因為SelectSort是一個O(n^2)的演算法(solution_1的時間複雜度為O(n*m),因為solution_1沒有將整個大陣列全部排序),而我們又知道排序演算法可以優化到O(nlogn),那們是否可以從這方面入手使用更快的排序演算法如MergeSor、QuickSort呢?但這些演算法都不具備從大至小選擇最大的N個數的功能,因此只有將1億個數按從大到小用QuickSort排序,然後提取最前面的1萬個。

template< class T, class I >

void solution_2( T BigArr[], T ResArr[] )

{

       std::sort( BigArr, BigArr + BIG_ARR_SIZE, std::greater_equal() );

       memcpy( ResArr, BigArr, sizeof(T) * RES_ARR_SIZE );

}

因為STL裡的sort演算法使用的是QuickSort,在這裡直接拿來用了,是因為不想寫一個寫一個眾人皆知的QuickSort程式碼來佔篇幅(而且STL的sort高度優化、速度快)。

對solution_2進行測試,執行時間是32秒,約為solution_1的1.5%的時間,已經取得了幾何數量級的進展。

深入思考
壓抑住興奮回頭再仔細看看solution_2,你將發現一個大問題,那就是在solution_2裡所有的元素都排序了!而事實上只需找出最大的1萬個即可,我們不是做了很多無用功嗎?應該怎麼樣來消除這些無用功?

如果你一時沒有頭緒,那就讓我慢慢引導你。首先,發掘一個事實:如果這個大陣列本身已經按從大到小有序,那麼陣列的前1萬個元素就是結果;然後,可以假設這個大陣列已經從大到小有序,並將前1萬個元素放到結果陣列;再次,事實上這結果數組裡放的未必是最大的一萬個,因此需要將前1萬個數字後續的元素跟結果陣列的最小的元素比較,如果所有後續的元素都比結果陣列的最小元素還小,那結果陣列就是想要的結果,如果某一後續的元素比結果陣列的最小元素大,那就用它替換結果數組裡最小的數字;最後,遍歷完大陣列,得到的結果陣列就是想要的結果了。

template< class T >

void solution_3( T BigArr[], T ResArr[] )

{

       //取最前面的一萬個

       memcpy( ResArr, BigArr, sizeof(T) * RES_ARR_SIZE );

       //標記是否發生過交換

       bool bExchanged = true;

       //遍歷後續的元素

       for( int i = RES_ARR_SIZE; i < BIG_ARR_SIZE; ++i )

       {

              int idx;

              //如果上一輪發生過交換

              if( bExchanged )

              {

                     //找出ResArr中最小的元素

                     int j;

                     for( idx = 0, j = 1; j < RES_ARR_SIZE; ++j )

                     {

                            if( ResArr[idx] > ResArr[j] )

                                   idx = j;

                     }

              }

              //這個後續元素比ResArr中最小的元素大,則替換。

              if( BigArr[i] > ResArr[idx] )

              {

                     bExchanged = true;

                     ResArr[idx] = BigArr[i];

              }

              else

                     bExchanged = false;

       }

}

上面的程式碼使用了一個布林變數bExchanged標記是否發生過交換,這是一個前文沒有談到的優化手段——用以標記元素交換的狀態,可以大大減少查詢ResArr中最小元素的次數。也對solution_3進行測試一下,結果用時2.0秒左右(不使用bExchanged則高達32分鐘),遠小於solution_2的用時。

深思熟慮
在進入下一步優化之前,分析一下solution_3的成功之處。第一、solution_3的演算法只遍歷大陣列一次,即它是一個O(n)的演算法,而solution_1是O(n*m)的演算法,solution_2是O(nlogn)的演算法,可見它在本質上有著天然的優越性;第二、在solution_3中引入了bExchanged這一標誌變數,從測試資料可見引入bExchanged減少了約99.99%的時間,這是一個非常大的成功。

上面這段話絕非僅僅說明了solution_3的優點,更重要的是把solution_3的主要矛盾擺上了桌面——為什麼一個O(n)的演算法效率會跟O(n*m)的演算法差不多(不使用bExchanged)?為什麼使用了bExchanged能夠減少99.99%的時間?帶著這兩個問題再次審視solution_3的程式碼,發現bExchanged的引入實際上減少了如下程式碼段的執行次數:

for( idx = 0, j = 1; j < RES_ARR_SIZE; ++j )

{

       if( ResArr[idx] > ResArr[j] )

              idx = j;

}

上面的程式碼段即是查詢ResArr中最小元素的演算法,分析它可知這是一個O(n)的演算法,到此時就水落石出了!原來雖然solution_3是一個O(n)的演算法,但因為內部使用的查詢最小元素的演算法也是O(n)的演算法,所以就退化為O(n*m)的演算法了。難怪不使用bExchanged使用的時間跟solution_1差不多;這也從反面證明了solution_3被上面的這一程式碼段導致效能退化。使用了bExchanged之後因為減少了很多查詢最小元素的程式碼段執行,所以能夠節省99.99%的時間!

至此可知元凶就是查詢最小元素的程式碼段,但查詢最小元素是必不可少的操作,在這個兩難的情況下該怎麼去優化呢?答案就是保持結果陣列(即ResArr)有序,那樣的話最小的元素總是最後一個,從而省去查詢最小元素的時間,解決上面的問題。但這也引入了一個新的問題:保持陣列有序的插入演算法的時間複雜度是O(n)的,雖然在這個問題裡插入的數次比例較小,但因為基數太大(1億),這一開銷仍然會令本方案得不償失。

難道就沒有辦法了嗎?記得小學解應用題時老師教導過我們如果解題沒有思路,那就多讀幾遍題目。再次審題,注意到題目並沒有要求找到的最大的1萬個數要有序(注4),這意味著可以通過如下演算法來解決:

1)            將BigArr的前1萬個元素複製到ResArr並用QuickSort使ResArr有序,並定義變數MinElemIdx儲存最小元素的索引,並定義變數ZoneBeginIdx儲存可能發生交換的區域的最小索引;

2)            遍歷BigArr其它的元素,如果某一元素比ResArr最小元素小,則將ResArr中MinElemIdx指向的元素替換,如果ZoneBeginIdx == MinElemIdx則擴充套件ZoneBeginIdx;

3)            重新在ZoneBeginIdx至RES_ARR_SIZE元素段中尋找最小元素,並用MinElemIdx儲存其它索引;

4)            重複2)直至遍歷完所有BigArr的元素。

依上演算法,寫程式碼如下:

template< class T, class I >

void solution_4( T BigArr[], T ResArr[] )

{

       //取最前面的一萬個

       memcpy( ResArr, BigArr, sizeof(T) * RES_ARR_SIZE );

       //排序

       std::sort( ResArr, ResArr + RES_ARR_SIZE, std::greater_equal() );

       //最小元素索引

       unsigned int MinElemIdx = RES_ARR_SIZE - 1;

       //可能產生交換的區域的最小索引

       unsigned int ZoneBeginIdx = MinElemIdx;

       //遍歷後續的元素

       for( unsigned int i = RES_ARR_SIZE; i < BIG_ARR_SIZE; ++i )

       {    

              //這個後續元素比ResArr中最小的元素大,則替換。

              if( BigArr[i] > ResArr[MinElemIdx] )

              {

                     ResArr[MinElemIdx] = BigArr[i];

                     if( MinElemIdx == ZoneBeginIdx )

                            --ZoneBeginIdx;

                     //查詢最小元素

                     unsigned int idx = ZoneBeginIdx;

                     unsigned int j = idx + 1;

                     for( ; j < RES_ARR_SIZE; ++j )

                     {

                            if( ResArr[idx] > ResArr[j] )

                                   idx = j;

                     }

                     MinElemIdx = idx;

              }

       }

}

經過測試,同樣情況下solution_4用時約1.8秒,較solution_3效率略高,總算不負一番努力。


因為受到經濟危機的影響,我在 bokee.com 的部落格可能隨時出現無法訪問的情況;因此將2005年到2006年間在 bokee.com 撰寫的部落格文章全部遷移到 csdn 部落格中來,本文正是其中一篇遷移的文章。

宣告:本文最初發表於《電腦程式設計技巧與維護》2006年第5期,版本所有,如蒙轉載,敬請連此宣告一起轉載,否則追究侵權責任。

從一道筆試題談演算法優化(下)

苦想冥思

這次優化從solution_4產生的輸出來入手。把solution_4的輸出寫到檔案,檢視後發現數組基本無序了。這說明在程式執行一定時間後,頻繁的替換幾乎將原本有序的結果陣列全部換血。結果陣列被替換的元素越多,查詢最小元素要遍歷的範圍就越大,當被替換的元素個數接近結果陣列的大小時,solution_4就退化成solution_3。因為solution_4很快退化也就直接導致它的效率沒有本質上的提高。

找出了原因,就應該找出一個解決的辦法。通過上面的分析,知道solution_3和solution_4最消耗時間的是查詢最小元素這一操作,將它減少(或去除)才有可能從本質上提高效率。這樣思路又回到保持結果陣列有序這一條老路上來。在上一節我們談到保持陣列有序的插入演算法將帶來大量的元素移動,頻繁的插入操作將使這一方法在效率上得不償失。有沒有辦法讓元素移動去掉呢?答案也是有的——那就是使用連結串列。這時新的問題又來了,連結串列因為是非隨機存取資料結構,插入前尋找位置的演算法又是O(n)的。解決新的問題的答案是使用AVL樹,但AVL樹雖然插入和查詢都是O(logn),可是需要在插入後進行調整保持平衡,這又是一個耗費大量時間的操作。分析到現在,發現我們像進了迷宮,左衝右突都找不到突破口。

現在請靜下來想一想,如果思考結果沒有跳出上面這個怪圈,那我不幸地告訴你:你被我誤導了。這個故意的誤導是要告誡大家:進行演算法優化必須時刻保持自己頭腦清醒,否則時刻都有可能陷入這樣的迷宮當中。現在跳出這個怪圈重新思考,根據前文的分析,可知目標是減少(或去除)查詢最小元素的操作次數(或查詢時間),途徑是讓ResArr保持有序,難點在於給ResArr排序太費時。反過來想一想,是否需要時刻保持ResArr有序?答案為否,因為當查詢最小元素需要遍歷的範圍較小時,速度還是很快的,這樣就犯不著在每替換一個元素的時候都排序一次,而僅需要在無序元素較多的時候適時地排序即可(即保持查詢最小元素要遍歷的範圍較小)。這個思想有用嗎?寫程式碼來測試一下:

template< class T, class I >

void solution_5( T BigArr[], T ResArr[] )

{

       //同solution_4,略

       //這個後續元素比ResArr中最小的元素大,則替換。

       if( BigArr[i] > ResArr[MinElemIdx] )

       {

              ResArr[MinElemIdx] = BigArr[i];

              if( MinElemIdx == ZoneBeginIdx )

                     --ZoneBeginIdx;

              //太多雜亂元素的時候排序

              if( ZoneBeginIdx < 9400 )

              {

                     std::sort( ResArr, ResArr + RES_ARR_SIZE, std::greater() );

                     ZoneBeginIdx = MinElemIdx = RES_ARR_SIZE - 1;

                     continue;

              }

       //同solution_4,略

}

程式碼中的9400是經過試驗得出的最好數值,即在有600個元素無序的時候進行一次排序。測試的結果令人驚喜,用時僅400毫秒左右,約為solution_4的五分之一,這也證明了上述思想是正確的。

殫思極慮

腳步永遠向前,在取得solution_5這樣的成果之後,仍然有必要分析和優化它。對這一看似已經完美的演算法進行下一次優化要從哪裡著手?這時候要藉助於效能剖分工具了,常用的有Intel的VTune以及Microsoft Visual C++自帶的profile等。使用MS profile對solution_5分析產生的報告如下(略去一些無關資料):

          Func             Func+Child           Hit

        Time   %         Time      %      Count  Function

---------------------------------------------------------

      37.718   1.0     3835.317  99.5        1 _main (algo.obj)

     111.900   2.9     3220.082  83.6        1 solution_5(int * ...

       0.000   0.0     3074.063  79.8      112 _STL::sort(int *,...

       ……

可以發現sort函式的呼叫用去了將近80%的時間,這表明sort函式是問題所在,優化應該從這裡著手。但正如前文所說,STL的sort已經高度優化速度很快了,再對他作優化是極難的;而且sort函式裡又呼叫了其它STL內部函式,如蛛絲般牽來繞去,讀得懂已經不是一般人可完成的了,優化從何談起?

我們不能左右天氣,但我們可以左右心情;我們不能修改sort函式,但我們可以控制sort的呼叫。再看看solution_5裡對sort的呼叫有沒有什麼蛛絲馬跡可尋:

       std::sort( ResArr, ResArr + RES_ARR_SIZE, std::greater() );

這個呼叫是把結果陣列ResArr重新排序一遍。需要把整個ResArr完全重新排序嗎?答案是需要的,但可以不使用這個方法。因為ResArr裡的元素絕大部分是有序的(結合上文可知前面94%的元素都有序),待排序的只是6%。只要把這600個數據重新排序然後將前後兩個有序陣列歸併為一個有序陣列即可(歸併演算法的時間複雜度為O(n+m)),將因為排序的資料量較少而大大節約時間。寫程式碼如下:

template< class T, class I >

void solution_6( T BigArr[], T ResArr[] )

{

       //同solution_5,略

       //太多雜亂元素的時候排序

       if( ZoneBeginIdx < 9400 )

       {

              std::sort( ResArr + 9400, ResArr + RES_ARR_SIZE, std::greater() );

              std::merge(ResArr, ResArr + 9400, ResArr + 9400, ResArr + RES_ARR_SIZE, BigArr, std::greater() );

              memcpy( ResArr, BigArr, sizeof(T) * RES_ARR_SIZE );

       //同solution_5,略

}

經測試,solutio_6的執行時間為250毫秒左右,比solution_5快了將近一半,通過profile分析報告計算sort函式和merge函式的佔用時間總計約為執行時間的19.6%,遠小於solution_5的佔用時間。

結束語

一番努力之後,終於將一個原來需要近一個小時才能解決的問題用250毫秒完成,文章到這裡要完結,不過上述演算法仍有可優化的餘地,這就要讀者朋友自己去挖掘了。我希望看到這篇文章的人不僅僅是讚歎演算法的奇妙,更希望能夠學會演算法優化的方法和技巧。對於演算法優化的方法,我總結如下(僅供參考及拋磚引玉之用):

l         不斷地否定自己的方法[全文]

l         減少重複計算[solution_3];

l         不要做沒要求你做的事[solution_3];

l         深化對需求的理解[solution_4];

l         溫故而知新,多重讀自己的演算法程式碼[solution_4];

l         從程式的輸出(或者中間結果)裡找突破[solution_5];

l         時刻保持頭腦清醒,常常跳出習慣的框框[solution_5];

l         善於使用工具[solution_6];

l         養成解決一個問題思考多個方案的習慣[全文]。

最後要講的一點就是STL裡提供了一個可以直接完成這一問題的演算法——nth_element。經測試,nth_element在大陣列比較小的時候速度比以上演算法都要快,但在大陣列尺寸為1億的時候所用的時間為1.3秒左右,是solution_6執行時間的5倍。原因在於nth_elenemt的實現方法跟本文介紹的演算法大不相同,有興趣的朋友可以去閱讀其原始碼。建議大家在一般情況下使用STL的nth_element,它在數量為十萬級的時候仍有極好的效能。