1. 程式人生 > >一次頻繁Full GC問題排查過程分享

一次頻繁Full GC問題排查過程分享

問題描述

  • 應用收到頻繁Full GC告警

問題排查

  • 登入到對應機器上去,檢視GC日誌,發現YGC一分鐘已經達到了15次,比Full GC還要頻繁一些,其中Full GC平均10分鐘超過了4次,如下圖
  • 使用jstat -gcutil 5280 1000檢視實時GC情況,年老代採用的是CMS收集器,發現觸發Full GC的原因是年老代佔用空間達到指定閾值70%(-XX:CMSInitiatingOccupancyFraction=70)。
  • 這時候猜測是某個地方頻繁建立物件導致,通過jmap -dump:format=b,file=temp.dump 5280 dump檔案,然後下載到本地通過jvisualvm分析物件的引用鏈的方式來定位具體頻繁建立物件的地方,dump檔案下載下來有5G多,整個匯入過程都花了10多分鐘。想檢視所佔空間較多物件的引用鏈,直接OOM了,dump物件太大了。這時候就換了種思路,檢視佔用空間比較大的一系列物件,看能不能找出什麼端倪。佔用空間最大的幾類物件如下圖

    發現排第一的chart[]物件裡面,存在一些metrics監控的具體指標的相關內容,排第二的io.prometheus.client.Collector$MetricFamilySample$Sample和排第9和第13物件都是spring boot中metrics指標監控相關的物件,所以此時懷疑metrics監控的某個地方在頻繁建立物件,首先考慮的是否因為metrics指標太多導致的,於是登入線上機器curl localhost:8080/mertrics > metrics.log,發現響應內容有50多M,參考其他相關的正常應用,指標總共內容也就10多M左右,開啟指標內容發現了很多類似如下圖的指標
    看到了這裡已經可以確定程式碼中上報這個指標是存在問題的,並沒有達到我們想要的效果,所以也懷疑也是這個地方導致的Full GC頻繁。

    問題初步解決

  • 由於這個指標也無關緊要,初步解決方案就把上報該指標的程式碼給幹掉。上線後看下Full GC問題是否會得到改善,果然,上線後Full GC告警問題已經解決。

初步解決後的思考,為什麼會有這個問題?

  • 外部監控系統,每25s會來呼叫metrics這個介面,這個介面會把所有的metrics指標轉成字串然後作為http響應內容響應。監控每來呼叫一次就會產生一個50多M的字串,導致了頻繁YGC,進而導致了晉升至年老代的物件也多了起來,最終年老代記憶體佔用達到70%觸發了Full GC。

根源問題重現

  • 此處採用metrics的作用:統計執行緒池執行各類任務的數量。為了簡化程式碼,用一個map來統計,重現程式碼如下
    import java.util.Map;
    import java.util.concurrent.*;
    import java.util.concurrent.atomic.AtomicInteger;
    
    /**
     * 執行緒池通過submit方式提交任務,會把Runnable封裝成FutureTask。
     * 直接導致了Runnable重寫的toString方法在afterExecute統計的時候沒有起到我們想要的作用,
     * 最終導致幾乎每一個任務(除非hashCode相同)就按照一類任務進行統計。所以這個metricsMap會越來越大,呼叫metrics介面的時候,會把該map轉成一個字元返回
     */
    public class GCTest {
        /**
         * 統計各類任務已經執行的數量
         * 此處為了簡化程式碼,只用map來代替metrics統計
         */
        private static Map<String, AtomicInteger> metricsMap = new ConcurrentHashMap<>();
    
        public static void  main(String[] args) throws InterruptedException {
            ThreadPoolExecutor threadPoolExecutor = new ThreadPoolExecutor(10, 10, 0, TimeUnit.SECONDS, new LinkedBlockingQueue<>()){
                /**
                 * 統計各類任務執行的數量
                 * @param r
                 * @param t
                 */
                @Override
                protected void afterExecute(Runnable r, Throwable t) {
                    super.afterExecute(r, t);
                    metricsMap.compute(r.toString(), (s, atomicInteger) ->
                            new AtomicInteger(atomicInteger == null ? 0 : atomicInteger.incrementAndGet()));
                }
            };
            /**
             * 源源不斷的任務新增進執行緒池被執行
             */
            for (int i =0; i < 1000; i++) {
                threadPoolExecutor.submit(new SimpleRunnable());
            }
            Thread.sleep(1000 * 2);
            System.out.println(metricsMap);
            threadPoolExecutor.shutdownNow();
        }
        static class SimpleRunnable implements Runnable{
    
            @Override
            public void run() {
                System.out.println("SimpleRunnable execute success");
            }
            /**
             * 重寫toString用於統計任務數
             * @return
             */
            @Override
            public String toString(){
                return this.getClass().getSimpleName();
            }
        }
    }

最終解決

  • 可以把submit改成execute即可

總結

  • 以上重顯程式碼可以看出metricsMap中的元素是會越來越多的。如果就這樣下去,最終的結果也會出現OOM。
  • 根本原因還是對ThreadPoolExecutor不夠熟悉,所以出現了這次問題。
  • 個人感覺Full GC類問題是比較讓人頭疼的。這些問題並不會想程式碼語法問題一樣,ide會提示我們具體錯在哪裡,我們只要修改對應地方基本都能解決。造成Full GC頻繁的原因也有很多,比如可能是jvm引數設定不合理、Metaspace空間觸發、頻繁建立物件觸發等等。
  • 如果確定了是頻繁建立物件導致,那麼接下來的目的就是確定頻繁建立物件的對應程式碼處,這時候可以選擇通過dump線上堆疊,然後下載到本地。選擇一些視覺化分析工具進行分析。最終定位到出問題的程式碼處,然後解決問題。