1. 程式人生 > >JAVA使用POI如何導出百萬級別數據(轉載)

JAVA使用POI如何導出百萬級別數據(轉載)

cep http 測試 tsql bubuko utils workbook 存儲 table

用過POI的人都知道,在POI以前的版本中並不支持大數據量的處理,如果數據量過多還會常報OOM錯誤,這時候調整JVM的配置參數也不是一個好對策(註:jdk在32位系統中支持的內存不能超過2個G,而在64位中沒有限制,但是在64位的系統中,性能並不是太好),好在POI3.8版本新出來了一個SXSSFWorkbook對象,它就是用來解決大數據量以及超大數據量的導入導出操作的,但是SXSSFWorkbook只支持.xlsx格式,不支持.xls格式的Excel文件。
這裏普及一下,在POI中使用HSSF對象時,excel 2003最多只允許存儲65536條數據,一般用來處理較少的數據量,這時對於百萬級別數據,Excel肯定容納不了,而且在計算機性能稍低的機器上測試,就很容易導致堆溢出。而當我升級到XSSF對象時,它可以直接支持excel2007以上版本,因為它采用ooxml格式。這時excel可以支持1048576條數據,單個sheet表就支持近104萬條數據了,雖然這時導出100萬數據能滿足要求,但使用XSSF測試後發現偶爾還是會發生堆溢出,所以也不適合百萬數據的導出。

現在我們知道excel2007及以上版本可以輕松實現存儲百萬級別的數據,但是系統中的大量數據是如何能夠快速準確的導入到excel中這好像是個難題,對於一般的web系統,我們為了解決成本,基本都是使用的入門級web服務器tomcat,既然我們不推薦調整JVM的大小,那我們就要針對我們的代碼來解決我們要解決的問題。在POI3.8之後新增加了一個類,SXSSFWorkbook,采用當數據加工時不是類似前面版本的對象,它可以控制excel數據占用的內存,他通過控制在內存中的行數來實現資源管理,即當創建對象超過了設定的行數,它會自動刷新內存,將數據寫入文件,這樣導致打印時,占用的CPU,和內存很少。但有人會說了,我用過這個類啊,他好像並不能完全解決,當數據量超過一定量後還是會內存溢出的,而且時間還很長。對你只是用了這個類,但是你並沒有針對你的需求進行相應的設計,僅僅是用了,所以接下來我要說的問題就是,如何通過SXSSFWorkbook以及相應的寫入設計來實現百萬級別的數據快速寫入。

我先舉個例子,以前我們數據庫中存在大量的數據,我們要查詢,怎麽辦?我們在沒有經過設計的時候是這樣來處理的,先寫一個集合,然後執行jdbc,將返回的結果賦值給list,然後再返回到頁面上,但是當數據量大的時候,就會出現數據無法返回,內存溢出的情況,於是我們在有限的時間和空間下,通過分頁將數據一頁一頁的顯示出來,這樣可以避免了大數據量數據對內存的占用,也提高了用戶的體驗,在我們要導出的百萬數據也是一個道理,內存突發性占用,我們可以限制導出數據所占用的內存,這裏我先建立一個list容器,list中開辟10000行的存儲空間,每次存儲10000行,用完了將內容清空,然後重復利用,這樣就可以有效控制內存,所以我們的設計思路就基本形成了,所以分頁數據導出共有以下3個步驟:

1、求數據庫中待導出數據的行數

2、根據行數求數據提取次數

3、按次數將數據寫入文件

通過以上步驟在效率和用戶體驗性上都有了很高的提高,接下來上代碼

public void exportBigDataExcel(ValueDataDto valueDataDto, String path)
            throws IOException {
    // 最重要的就是使用SXSSFWorkbook,表示流的方式進行操作
    // 在內存中保持100行,超過100行將被刷新到磁盤
    SXSSFWorkbook wb = new SXSSFWorkbook(100);
    Sheet sh = wb.createSheet(); // 建立新的sheet對象
    Row row = sh.createRow(0);   // 創建第一行對象
    // -----------定義表頭-----------
    Cell cel0 = row.createCell(0);
    cel0.setCellValue("1");
    Cell cel2 = row.createCell(1);
    cel2.setCellValue("2");
    Cell cel3 = row.createCell(2);
    cel3.setCellValue("3");
    Cell cel4 = row.createCell(3);
    // ---------------------------
    List<valuedatabean> list = new ArrayList<valuedatabean>();
    // 數據庫中存儲的數據行
    int page_size = 10000;
    // 求數據庫中待導出數據的行數
    int list_count = this.daoUtils.queryListCount(this.valueDataDao
            .queryExportSQL(valueDataDto).get("count_sql"));
    // 根據行數求數據提取次數
    int export_times = list_count % page_size > 0 ? list_count / page_size
            + 1 : list_count / page_size;
    // 按次數將數據寫入文件
    for (int j = 0; j < export_times; j++) {
        list = this.valueDataDao.queryPageList(this.valueDataDao
                .queryExportSQL(valueDataDto).get("list_sql"), j + 1,
                page_size);
        int len = list.size() < page_size ? list.size() : page_size;
<span style="white-space:pre">    </span>    for (int i = 0; i < len; i++) {
            Row row_value = sh.createRow(j * page_size + i + 1);
            Cell cel0_value = row_value.createCell(0);
            cel0_value.setCellValue(list.get(i).getaa());
            Cell cel2_value = row_value.createCell(1);
            cel2_value.setCellValue(list.get(i).getaa());
            Cell cel3_value = row_value.createCell(2);
            cel3_value.setCellValue(list.get(i).getaa_person());
        }
        list.clear(); // 每次存儲len行,用完了將內容清空,以便內存可重復利用
    }
    FileOutputStream fileOut = new FileOutputStream(path);
    wb.write(fileOut);
    fileOut.close();
    wb.dispose();
}

到目前已經可以實現百萬數據的導出了,但是當我們的業務數據超過200萬,300萬了呢?如何解決?

這時,直接打印數據到一個工作簿的一個工作表是實現不了的,必須拆分到多個工作表,或者多個工作簿中才能實現。因為一個sheet最多行數為1048576。

下面就以這種思路提供另外一種解決方案,直接上代碼(後面會附上測試數據庫,及案例需要的jar包)

public static void main(String[] args) throws Exception {
    Test3SXXFS tm = new Test3SXXFS();
    tm.jdbcex(true);
}
public void jdbcex(boolean isClose) throws InstantiationException, IllegalAccessException, 
            ClassNotFoundException, SQLException, IOException, InterruptedException {
        
    String xlsFile = "f:/poiSXXFSBigData.xlsx";        //輸出文件
    //內存中只創建100個對象,寫臨時文件,當超過100條,就將內存中不用的對象釋放。
    Workbook wb = new SXSSFWorkbook(100);            //關鍵語句
    Sheet sheet = null;        //工作表對象
    Row nRow = null;        //行對象
    Cell nCell = null;        //列對象
 
    //使用jdbc鏈接數據庫
    Class.forName("com.mysql.jdbc.Driver").newInstance();  
    String url = "jdbc:mysql://localhost:3306/bigdata?characterEncoding=UTF-8";
    String user = "root";
    String password = "123456";
    //獲取數據庫連接
    Connection conn = DriverManager.getConnection(url, user,password);   
    Statement stmt = conn.createStatement(ResultSet.TYPE_SCROLL_SENSITIVE,ResultSet.CONCUR_UPDATABLE);   
    String sql = "select * from hpa_normal_tissue limit 1000000";   //100萬測試數據
    ResultSet rs = stmt.executeQuery(sql);  
    
    ResultSetMetaData rsmd = rs.getMetaData();
    long  startTime = System.currentTimeMillis();    //開始時間
    System.out.println("strat execute time: " + startTime);
        
    int rowNo = 0;        //總行號
    int pageRowNo = 0;    //頁行號
        
    while(rs.next()) {
        //打印300000條後切換到下個工作表,可根據需要自行拓展,2百萬,3百萬...數據一樣操作,只要不超過1048576就可以
        if(rowNo%300000==0){
            System.out.println("Current Sheet:" + rowNo/300000);
            sheet = wb.createSheet("我的第"+(rowNo/300000)+"個工作簿");//建立新的sheet對象
            sheet = wb.getSheetAt(rowNo/300000);        //動態指定當前的工作表
            pageRowNo = 0;        //每當新建了工作表就將當前工作表的行號重置為0
        }    
        rowNo++;
        nRow = sheet.createRow(pageRowNo++);    //新建行對象
 
        // 打印每行,每行有6列數據   rsmd.getColumnCount()==6 --- 列屬性的個數
        for(int j=0;j<rsmd.getColumnCount();j++){
            nCell = nRow.createCell(j);
            nCell.setCellValue(rs.getString(j+1));
        }
            
        if(rowNo%10000==0){
            System.out.println("row no: " + rowNo);
        }
//        Thread.sleep(1);    //休息一下,防止對CPU占用,其實影響不大
    }
        
    long finishedTime = System.currentTimeMillis();    //處理完成時間
    System.out.println("finished execute  time: " + (finishedTime - startTime)/1000 + "m");
        
    FileOutputStream fOut = new FileOutputStream(xlsFile);
    wb.write(fOut);
    fOut.flush();        //刷新緩沖區
    fOut.close();
        
    long stopTime = System.currentTimeMillis();        //寫文件時間
    System.out.println("write xlsx file time: " + (stopTime - startTime)/1000 + "m");
        
    if(isClose){
        this.close(rs, stmt, conn);
    }
}
    
//執行關閉流的操作
private void close(ResultSet rs, Statement stmt, Connection conn ) throws SQLException{
    rs.close();   
    stmt.close();   
    conn.close(); 
}

數據庫截圖:

技術分享圖片

案例執行結果截圖:

技術分享圖片

JAVA使用POI如何導出百萬級別數據(轉載)