1. 程式人生 > >MySQL批量SQL插入各種性能優化

MySQL批量SQL插入各種性能優化

排列 max 資源 提交 ddc 100萬 來看 ont 成本

對於一些數據量較大的系統。數據庫面臨的問題除了查詢效率低下,還有就是數據入庫時間長。特別像報表系統,每天花費在數據導入上的時間可能會長達幾個小時或十幾個小時之久。因此。優化數據庫插入性能是非常有意義的。
經過對MySQL innodb的一些性能測試,發現一些能夠提高insert效率的方法。供大家參考參考。

1、一條SQL語句插入多條數據。

經常使用的插入語句如:

INSERT INTO `insert_table` (`datetime`, `uid`, `content`, `type`)      
VALUES (‘0‘, ‘userid_0‘, ‘content_0‘
, 0);
INSERT INTO `insert_table` (`datetime`, `uid`, `content`, `type`) VALUES (‘1‘, ‘userid_1‘, ‘content_1‘, 1);

改動成:

INSERT INTO `insert_table` (`datetime`,`uid`,`content`,`type`)
VALUES (‘0‘,‘userid_0‘,‘content_0‘,0),(‘1‘,‘userid_1‘,‘content_1‘,1);

改動後的插入操作能夠提高程序的插入效率。這裏另外一種SQL運行效率高的主要原因是合並後日誌量(MySQL的binlog和innodb的事務讓日誌)降低了。降低日誌刷盤的數據量和頻率。從而提高效率。通過合並SQL語句。同一時候也能降低SQL語句解析的次數,降低網絡傳輸的IO。

這裏提供一些測試對照數據。各自是進行單條數據的導入與轉化成一條SQL語句進行導入,分別測試1百、1千、1萬條數據記錄。

技術分享

2、 在事務中進行插入處理。

把插入改動成:

START TRANSACTION;
INSERT INTO `insert_table` (`datetime`, `uid`, `content`, `type`) 
   VALUES (‘0‘, ‘userid_0‘, ‘content_0‘, 0);
INSERT INTO `insert_table` (`datetime`, `uid`, `content`, `type`) 
    VALUES (‘1‘
, ‘userid_1‘, ‘content_1‘, 1);
... COMMIT;

使用事務能夠提高數據的插入效率,這是因為進行一個INSERT操作時,MySQL內部會建立一個事務,在事務內才進行真正插入處理操作。通過使用事務能夠降低創建事務的消耗,全部插入都在運行後才進行提交操作。

這裏也提供了測試對照,各自是不使用事務與使用事務在記錄數為1百、1千、1萬的情況。

技術分享

3、數據有序插入。

數據有序的插入是指插入記錄在主鍵上是有序排列,比如datetime是記錄的主鍵:

INSERT INTO `insert_table` (`datetime`,`uid`,`content`,`type`)
VALUES(‘1‘,‘userid_1‘,‘content_1‘,1);

INSERT INTO `insert_table`(`datetime`,`uid`,`content`,`type`)
VALUES(‘0‘,‘userid_0‘,‘content_0‘,0);

INSERT INTO `insert_table`(`datetime`,`uid`,`content`,`type`)
VALUES(‘2‘,‘userid_2‘,‘content_2‘,2);

改動成:

INSERT INTO `insert_table` (`datetime`,`uid`,`content`,`type`)
VALUES(‘0‘,‘userid_0‘,‘content_0‘,0);

INSERT INTO `insert_table` (`datetime`,`uid`,`content`,`type`)
VALUES(‘1‘,‘userid_1‘,‘content_1‘,1);

INSERT INTO`insert_table`(`datetime`,`uid`,`content`,`type`)
VALUES(‘2‘,‘userid_2‘,‘content_2‘,2);

因為數據庫插入時。須要維護索引數據,無序的記錄會增大維護索引的成本。我們能夠參照innodb使用的B+tree索引,假設每次插入記錄都在索引的最後面,索引的定位效率非常高,而且對索引調整較小。假設插入的記錄在索引中間,須要B+tree進行分裂合並等處理。會消耗比較多計算資源,而且插入記錄的索引定位效率會下降,數據量較大時會有頻繁的磁盤操作。

以下提供隨機數據與順序數據的性能對照,各自是記錄為1百、1千、1萬、10萬、100萬。


技術分享

從測試結果來看。該優化方法的性能有所提高,可是提高並非非常明顯。

性能綜合測試:

這裏提供了同一時候使用上面三種方法進行INSERT效率優化的測試。

技術分享

從測試結果能夠看到,合並數據+事務的方法在較小數據量時,性能提高是非常明顯的,數據量較大時(1千萬以上)。性能會急劇下降,這是因為此時數據量超過了innodb_buffer的容量,每次定位索引涉及較多的磁盤讀寫操作。性能下降較快。而使用合並數據+事務+有序數據的方式在數據量達到千萬級以上表現依然是良好,在數據量較大時。有序數據索引定位較為方便,不須要頻繁對磁盤進行讀寫操作,所以能夠維持較高的性能。

註意事項:

1、SQL語句是有長度限制,在進行數據合並在同一SQL中務必不能超過SQL長度限制。通過max_allowed_packet配置能夠改動,默認是1M,測試時改動為8M。

2、事務須要控制大小。事務太大可能會影響運行的效率。MySQL有innodb_log_buffer_size配置項,超過這個值會把innodb的數據刷到磁盤中。這時,效率會有所下降。

所以比較好的做法是,在數據達到這個這個值前進行事務提交。

MySQL批量SQL插入各種性能優化