1. 程式人生 > >2018-4-17論文《狼群演算法的研究與應用》筆記2 :高維複雜單目標連續優化問題的改進狼群演算法

2018-4-17論文《狼群演算法的研究與應用》筆記2 :高維複雜單目標連續優化問題的改進狼群演算法

高維複雜單目標函式優化問題之所以難的原因:

(1)維度的增加,搜尋空間的呈現指數級的增加,即使在演算法的種群規模確定的情況下,優質可行解的比例也是相對比較小的吧,從而使得獲得有直接的概率減小(自己是這樣理解的。總感覺維度的增加的目的是獲得更好的解,也就是說隨著緯度的增加解得約束更多,獲得優質解的概率更小)

(2)群體智慧演算法的尋優時間相對比較長,也就是尋優精度會受到進化次數的影響。在時間的制約下,即使演算法可以面面俱到,但是現實的結果可能也會促使放棄。貼上實用性不高的標籤(比如網頁中的3秒,通常是客戶等待的最大閾值)

(3)隨著維度的增加,演算法的收斂速度會降低,使得演算法不能再有限的時間完成操作

(4)有多區域性最優解的存在

邏輯模式:

****演算法也不可避免上述問通過實驗與分析發現,造成演算法易陷入區域性最優的原因有兩個:第一,整個狼群的搜尋行為過度依賴頭狼的位置,容易造成獵物群多樣性下降;第二,狼群演算法的引數設定較多,不易控制,如果引數設定不當,容易造成演算法尋優精度不高或不收斂的情況。造成演算法收斂速度慢的原因有兩點:第一,演算法的尋優過程分為遊走、奔襲和圍攻,但人工狼之間缺少必要的資訊交流,造成演算法全域性性不高,過於分散;第二,圍攻行為步長恆定,如果步長設定不當,會造成演算法無法準確圍攻目標,導致演算法收斂性下降。基於上述原因...........+設計思想

設計了1.互動遊走行為與互動召喚行為,使得探狼、猛狼進行資訊交流,有助於人工狼更好的掌握全域性資訊,保證狼群多樣性,提高狼群尋優能力;為了加速收斂速度,為狼群圍攻行為設計了自適應圍攻行為,根據狼群離獵物的遠近,自適應的調節圍攻步長,使得演算法調節能力強


改進的主要的策略(1)遊走行為互動策略(2)奔襲行為的互動策略(3)狼群圍攻的自適應策略

互動遊走行為

(1)探狼是隨機 進行選擇h個方向然後進行的,但是互相之間並沒有交流,會不會之間就是存在的重複?可以記錄自己找過的方向和位置。在文章中使用gbest導向作用。公式:

在最初的遊走是為了獲得獵物,所以在遊走的過程是根據氣味濃度,會得到看到獵物,然後根據獵物


虛擬碼:


互動奔襲行為


自適應圍攻行為


總體 論文在ch

在看到論文的改進的時候,覺的很有道理。到後來的雖然看完了,但是不在狀態,有些理解不了。在互動遊走的時候,那個獲得就是互動的獵物? 以及產生h+1獵物。目前不懂