1. 程式人生 > >絕對乾貨,4分鐘插入1000萬條資料到mysql資料庫表

絕對乾貨,4分鐘插入1000萬條資料到mysql資料庫表

轉:https://www.cnblogs.com/fanwencong/p/5765136.html

我用到的資料庫為,mysql資料庫5.7版本的

1.首先自己準備好資料庫表

其實我在插入1000萬條資料的時候遇到了一些問題,現在先來解決他們,一開始我插入100萬條資料時候報錯,控制檯的資訊如下:

com.mysql.jdbc.PacketTooBigException: Packet for query is too large (4232009 > 4194304). You can change this value on the server by setting the max_allowed_packet’ variable.

出現上面的錯誤是因為資料庫表的 max_allowed_packet這個配置沒配置足夠大,因為預設的為4M的,後來我調為100M就沒報錯了

set global max_allowed_packet = 100*1024*1024*
記住,設定好後重新登入資料庫才能看的設定後的值show VARIABLES like '%max_allowed_packet%'
Java的jdbc程式碼如下:

1

2

3

4

5

6

7

8

9

10

11

12

13

14

15

16

17

18

19

20

21

22

23

24

25

26

27

28

29

30

31

32

33

34

35

36

37

38

39

40

41

42

43

44

45

46

47

48

49

50

51

52

53

54

55

56

57

58

59

60

61

62

63

64

65

66

67

68

69

70

71

package insert;

 

import java.sql.Connection;

import java.sql.DriverManager;

import java.sql.SQLException;

import java.util.Date;

 

import com.mysql.jdbc.PreparedStatement;

 

public class InsertTest {

 

    public static void main(String[] args) throws ClassNotFoundException, SQLException {

        final String url = "jdbc:mysql://127.0.0.1/teacher"

        final String name = "com.mysql.jdbc.Driver"

        final String user = "root"

        final String password = "123456"

        Connection conn = null

        Class.forName(name);//指定連線型別 

        conn = DriverManager.getConnection(url, user, password);//獲取連線 

        if (conn!=null) {

            System.out.println("獲取連線成功");

            insert(conn);

        }else {

            System.out.println("獲取連線失敗");

        }

 

    }

    public static void insert(Connection conn) {

        // 開始時間

        Long begin = new Date().getTime();

        // sql字首

        String prefix = "INSERT INTO t_teacher (id,t_name,t_password,sex,description,pic_url,school_name,regist_date,remark) VALUES ";

        try {

            // 儲存sql字尾

            StringBuffer suffix = new StringBuffer();

            // 設定事務為非自動提交

            conn.setAutoCommit(false);

            // 比起st,pst會更好些

            PreparedStatement  pst = (PreparedStatement) conn.prepareStatement("");//準備執行語句

            // 外層迴圈,總提交事務次數

            for (int i = 1; i <= 100; i++) {

                suffix = new StringBuffer();

                // 第j次提交步長

                for (int j = 1; j <= 100000; j++) {

                    // 構建SQL字尾

                    suffix.append("('" + uutil.UUIDUtil.getUUID()+"','"+i*j+"','123456'"",'男'"+",'教師'"+",'www.bbk.com'"+",'XX大學'"+",'"+"2016-08-12 14:43:26"+"','備註'" +"),");

                }

                // 構建完整SQL

                String sql = prefix + suffix.substring(0, suffix.length() - 1);

                // 新增執行SQL

                pst.addBatch(sql);

                // 執行操作

                pst.executeBatch();

                // 提交事務

                conn.commit();

                // 清空上一次新增的資料

                suffix = new StringBuffer();

            }

            // 頭等連線

            pst.close();

            conn.close();

        catch (SQLException e) {

            e.printStackTrace();

        }

        // 結束時間

        Long end = new Date().getTime();

        // 耗時

        System.out.println("1000萬條資料插入花費時間 : " + (end - begin) / 1000 " s");

        System.out.println("插入完成");

    }

}

 

  結果:

哈哈,1000萬條資料288秒完成,是不是感覺超級牛逼,我每次插入10萬條資料就提交一次事務,如果是一條一條差的話估計要好幾個小時,網上有人試過時間浪費在資料庫的連線上了,
後來我想測試插入100萬條資料時候資料庫引擎的差別
首先把程式碼中最外層的迴圈i=100改為i=10;
1.資料庫引擎為MyISAM時:27s,這個我忘了截圖了。因為我後來測試InnoDB的時候我換了一個表來測試,因為我發現改不了資料庫表的引擎。。。。所以只能換一個表來測試
1.資料庫引擎為InnoDB時:
 用了77秒,比MyISAW慢了3倍左右,估計要是1000萬條資料的時候更慢吧。。。