1. 程式人生 > >mysql生成千萬級的測試數據

mysql生成千萬級的測試數據

成對 測試 nbsp 速度 contain check leave _for procedure

http://blog.csdn.net/dennis211/article/details/78076399

MYSQL打造千萬級測試數據

為了更好的測試MYSQL性能以及程序優化,不得不去制作海量數據來測試。我這裏的方法就是直接用uuid函數進行分配每條數據的不同內容。

1.首先創建測試表(card表)

[sql] view plain copy
  1. CREATE TABLE `card` (
  2. `card_id` bigint(20) NOT NULL AUTO_INCREMENT COMMENT ‘ID‘,
  3. `card_number` varchar(100) DEFAULT NULL COMMENT ‘卡號‘,
  4. PRIMARY KEY (`card_id`)
  5. ) ENGINE=MyISAM AUTO_INCREMENT=0 DEFAULT CHARSET=utf8 CHECKSUM=1 DELAY_KEY_WRITE=1 ROW_FORMAT=DYNAMIC

2.創建MYSQL存儲過程

[sql] view plain copy
  1. DROP PROCEDURE IF EXISTS proc1;
  2. DELIMITER $$
  3. SET AUTOCOMMIT = 0$$
  4. CREATE PROCEDURE proc1()
  5. BEGIN
  6. DECLARE v_cnt DECIMAL (10) DEFAULT 0 ;
  7. dd:LOOP
  8. INSERT INTO card (card_number) VALUES (UUID());
  9. COMMIT;
  10. SET v_cnt = v_cnt+1 ;
  11. IF v_cnt = 10000000 THEN LEAVE dd;
  12. END IF;
  13. END LOOP dd ;
  14. END;$$
  15. DELIMITER ;

3.調用存儲過程,生成對應的測試數據

[sql] view plain copy
  1. call proc1;

我的機子大概是2分13秒的樣子生成完畢,每個人的機子各有不同,生成的時間也會不一樣。

4.來測試一下性能吧。

[sql] view plain copy
  1. select * from card order by rand() limit 1; //6.5秒查詢完畢
  2. select * from card where card_number like ‘%xxx%‘; //3.7秒查詢完畢

在這樣的海量數據情況下,如果用到模糊查詢,那肯定會很慢,一般建議用全文檢索引擎來替代(如Sphinx),查詢速度就完全解決。

mysql生成千萬級的測試數據