您的位置:首页 > 编程语言 > Java开发

【Java/JDBC.ORM】 jdbc插入大量数据时优化处理

2015-04-19 18:06 393 查看
转自:http://blog.csdn.net/xiashan17/article/details/6049587

这个就是做个练习.想看下JDBC的最大优化度.

我的要求就是插入到数据库里大量的数据 比如10W 或者 100W 而且要求内存稳定.

首先说下我的代码:

我的数据库MySQL

[java] view
plaincopy

CREATE TABLE `users` (

`id` int(11) NOT NULL auto_increment,

`firstname` varchar(50) NOT NULL,

`lastname` varchar(50) NOT NULL,

`age` int(11) NOT NULL,

PRIMARY KEY (`id`)

) ENGINE=InnoDB DEFAULT CHARSET=utf8

我的数据库辅助类

[java] view
plaincopy

package com.jdbc.batch;

import java.sql.Connection;

import java.sql.DriverManager;

import java.sql.PreparedStatement;

import java.sql.ResultSet;

import java.sql.SQLException;

public final class DBUtils {

private static String mysqlurl = "jdbc:mysql://localhost:3306/mytest";

private static String accessurl = "jdbc:mysql://localhost:3306/mytest";

private static String user = "root";

private static String password = "root";

// 获得连接

public static Connection getAccessConn() throws SQLException {

return DriverManager.getConnection(accessurl, user, password);

}

public static Connection getMySqlConn() throws SQLException {

return DriverManager.getConnection(mysqlurl, user, password);

}

// 释放连接

public static void free(ResultSet rs, PreparedStatement ps, Connection conn) {

try {

if (rs != null) {

rs.close();

}

} catch (SQLException e) {

e.printStackTrace();

} finally {

try {

if (ps != null) {

ps.close();

}

} catch (SQLException e) {

e.printStackTrace();

} finally {

try {

if (conn != null) {

conn.close();

}

} catch (SQLException e) {

e.printStackTrace();

}

}

}

}

// 加载驱动

static {

try {

Class.forName("com.mysql.jdbc.Driver");

} catch (ClassNotFoundException e) {

System.out.println("驱动加载出错");

}

}

}

测试类

[java] view
plaincopy

package com.jdbc.batch;

import java.sql.Connection;

import java.sql.PreparedStatement;

import java.sql.ResultSet;

import java.sql.SQLException;

public class BatchExample {

private static Connection mysqlConn = null;

private static ResultSet rs = null;

// 总条数

private static int allCount = 10000;

// 分批条数

private static int preCount = 1000;

// 计数器

private static int count = 0;

private static String insertSQL = "insert into users(firstname, lastname, age) values(?, ?, ?)";

private static PreparedStatement mysqlPs = null;

public static void main(String[] args) throws SQLException {

try {

mysqlConn = DBUtils.getMySqlConn();

mysqlPs = mysqlConn.prepareStatement(insertSQL);

mysqlConn.setAutoCommit(false);

long start = System.currentTimeMillis();

for (int i = 1; i <= allCount; i++) {

mysqlPs.setString(1, "firstname" + i);

mysqlPs.setString(2, "lastname" + i);

mysqlPs.setInt(3, 23);

mysqlPs.addBatch();

if ((i % preCount) == 0){

mysqlPs.executeBatch();

System.out.println("当前进行完毕===>" + (++count) * preCount + "条");

}

}

long end = System.currentTimeMillis();

System.out.println("数据导入完毕,所用时间为: " + (end - start) + " ms");

} catch (Exception e) {

mysqlConn.rollback();

System.out.println("数据出错,已进行回滚");

throw new RuntimeException();

} finally {

mysqlConn.commit();

DBUtils.free(rs, mysqlPs, mysqlConn);

}

}

}

我用的批处理.最后执行10000条的记录是

当前进行完毕===>1000条

当前进行完毕===>2000条

当前进行完毕===>3000条

当前进行完毕===>4000条

当前进行完毕===>5000条

当前进行完毕===>6000条

当前进行完毕===>7000条

当前进行完毕===>8000条

当前进行完毕===>9000条

当前进行完毕===>10000条

数据导入完毕,所用时间为: 8140 ms

而我换了一种方案 用executeUpdate一次提交.SQL用StringBuilder串接 效率提升很快.

代码

[c-sharp] view
plaincopy

package com.jdbc.batch;

import java.sql.Connection;

import java.sql.PreparedStatement;

import java.sql.ResultSet;

import java.sql.SQLException;

public class BufferQuery {

private static Connection mysqlConn = null;

private static ResultSet rs = null;

// 总条数

private static int allCount = 10000;

// 分批条数

private static int preCount = 1000;

// 计数器

private static int count = 0;

private static String insertSQL = "insert into users(firstname, lastname, age) values(?, ?, ?)";

private static PreparedStatement mysqlPs = null;

public static void main(String[] args) throws SQLException {

try {

StringBuilder sb = new StringBuilder();

sb.append("insert into users(firstname, lastname, age) values");

mysqlConn = DBUtils.getMySqlConn();

mysqlPs = mysqlConn.prepareStatement(insertSQL);

mysqlConn.setAutoCommit(false);

long start = System.currentTimeMillis();

for (int i = 1; i <= allCount; i++) {

if(i > 1) sb.append(",");

sb.append("('aa"+ i +"','bb',23)");

if(i % preCount == 0){

System.out.println("导入进行===>" + (++count * preCount) + "条");

}

}

mysqlPs.executeUpdate(sb.toString());

long end = System.currentTimeMillis();

System.out.println("数据导入完毕,所用时间为: " + (end - start) + " ms");

} catch (Exception e) {

mysqlConn.rollback();

System.out.println("数据出错,已进行回滚");

throw new RuntimeException();

} finally {

mysqlConn.commit();

DBUtils.free(rs, mysqlPs, mysqlConn);

}

}

}

[java] view
plaincopy

// 用的StringBuilder串接

long start = System.currentTimeMillis();

for (int i = 1; i <= allCount; i++) {

if(i > 1) sb.append(",");

sb.append("('aa"+ i +"','bb',23)");

if(i % preCount == 0){

System.out.println("导入进行===>" + (++count * preCount) + "条");

}

}

mysqlPs.executeUpdate(sb.toString());

导入进行===>1000条

导入进行===>2000条

导入进行===>3000条

导入进行===>4000条

导入进行===>5000条

导入进行===>6000条

导入进行===>7000条

导入进行===>8000条

导入进行===>9000条

导入进行===>10000条

数据导入完毕,所用时间为: 219 ms

1W条才129ms为什么会比批处理快这么多.但是还有问题就是 如果数据量更大 如20W 那么StringBuilder就装不下 堆栈溢出....

stringbuilder 看了msdn,发现最大的长度是Int32,开始没有理解,后来HJ告诉我能够至少容纳3M的长度,我又去check了一下msdn,最大的长度是2的32次方(2的32次方就是4G),但是网上有人说是2G,那就是2的31次方。

要注意的是stringbuilder非线程安全 用再多线程处理时要慎用

我测试的jdbc批处理操作,插入112万条数据的对比

批量向数据表插入一条数据(包含一个float值)

建立表个数 每个表插入数据条数 单个数据表耗时(毫秒) 数据库连接耗时(毫秒) 带数据库连接总耗时(毫秒) 不带数据库连接总耗时(毫秒) 备注

800 1440 480-600 312 437703 437391 调用Statement.execute批量插入

800 1440 100-200 328 118985 118657 调用Statement.addBatch批量插入

800 1440 40-110 313 56922 56609 调用PreparedStatement.addBatch批量插入

使用jdbc向数据库插入100000条记录,分别使用statement,PreparedStatement,及PreparedStatement+批处理3种方式进行测试:

  1、使用statement插入100000条记录

  public void exec(Connection conn){

  try {

  Long beginTime = System.currentTimeMillis();

  conn.setAutoCommit(false);//设置手动提交

  Statement st = conn.createStatement();

  for(int i=0;i<100000;i++){

  String sql="insert into t1(id) values ("+i+")";

  st.executeUpdate(sql);

  }

  Long endTime = System.currentTimeMillis();

  System.out.println("st:"+(endTime-beginTime)/1000+"秒");//计算时间

  st.close();

  conn.close();

  } catch (SQLException e) {

  // TODO Auto-generated catch block

  e.printStackTrace();

  }

  }

  2、使用PreparedStatement对象

  public void exec2(Connection conn){

  try {

  Long beginTime = System.currentTimeMillis();

  conn.setAutoCommit(false);//手动提交

  PreparedStatement pst = conn.prepareStatement("insert into t1(id) values (?)");

  for(int i=0;i<100000;i++){

  pst.setInt(1, i);

  pst.execute();

  }

  conn.commit();

  Long endTime = System.currentTimeMillis();

  System.out.println("pst:"+(endTime-beginTime)/1000+"秒");//计算时间

  pst.close();

  conn.close();

  } catch (SQLException e) {

  // TODO Auto-generated catch block

  e.printStackTrace();

  }

  }

wordend 相关阅读:

性能测试(并发负载压力)测试分析
软件性能测试的重要性及策略
软件性能测试入门

  3、使用PreparedStatement + 批处理

  public void exec3(Connection conn){

  try {

  conn.setAutoCommit(false);

  Long beginTime = System.currentTimeMillis();

  PreparedStatement pst = conn.prepareStatement("insert into t1(id) values (?)");

  for(int i=1;i<=100000;i++){

  pst.setInt(1, i);

  pst.addBatch();

  if(i%1000==0){//可以设置不同的大小;如50,100,500,1000等等

  pst.executeBatch();

  conn.commit();

  pst.clearBatch();

  }

  }

  Long endTime = System.currentTimeMillis();

  System.out.println("pst+batch:"+(endTime-beginTime)/1000+"秒");

  pst.close();

  conn.close();

  } catch (SQLException e) {

  // TODO Auto-generated catch block

  e.printStackTrace();

  }

  }

  在Oracle 10g中测试,结果:

  1、使用statement耗时142秒;

  2、使用PreparedStatement耗时56秒;

  3、使用PreparedStatement + 批处理耗时:

  a.50条插入一次,耗时5秒;

  b.100条插入一次,耗时2秒;

  c.1000条以上插入一次,耗时1秒;

  通过以上可以得出结论,在使用jdbc大批量插入数据时,明显使用第三种方式(PreparedStatement + 批处理)性能更优。

  当使用sqlserver 2000进行测试时,第三种方式最少耗时5秒,从这方面可以看出Oracle在处理大量数据时,明显性能更强。
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: