视频1 视频21 视频41 视频61 视频文章1 视频文章21 视频文章41 视频文章61 推荐1 推荐3 推荐5 推荐7 推荐9 推荐11 推荐13 推荐15 推荐17 推荐19 推荐21 推荐23 推荐25 推荐27 推荐29 推荐31 推荐33 推荐35 推荐37 推荐39 推荐41 推荐43 推荐45 推荐47 推荐49 关键词1 关键词101 关键词201 关键词301 关键词401 关键词501 关键词601 关键词701 关键词801 关键词901 关键词1001 关键词1101 关键词1201 关键词1301 关键词1401 关键词1501 关键词1601 关键词1701 关键词1801 关键词1901 视频扩展1 视频扩展6 视频扩展11 视频扩展16 文章1 文章201 文章401 文章601 文章801 文章1001 资讯1 资讯501 资讯1001 资讯1501 标签1 标签501 标签1001 关键词1 关键词501 关键词1001 关键词1501 专题2001
mysql数据库批量快速插入_MySQL
2020-11-09 19:55:32 责编:小采
文档


最近在处理一批数据,需要从库中表里的字段进行处理然后导出到一个新表中。不过这个表的数据量有近500w条。这数据量出现的的问题是需要处理的时间好长。
首先想到,一句一句的插入,大数据量处理时间好长,忽略。
其次想到,多线程插入,想到数据库连接是需要同步的所以感觉用处不大。
最后想到,使用 PreparedStatement 预编译sql 进行批量插入 batch 处理。
好吧,现在就进行批处理插入测试。
1、使用简单的 batch

public static void main(String[] args) {
 Connection conn = getConn(lsqlurl, luser, lpassword);
 long startTime = System.currentTimeMillis();
 try {
 PreparedStatement pst = conn.prepareStatement("insert into testmy (id,name,age) values (?,?,?)");
 for (int i = 0; i < 2000; i++) {
 pst.setInt(1, 3);
 pst.setString(2, "xx");
 pst.setInt(3, 10);
 pst.addBatch();
 }
 pst.executeBatch();
 long endTime = System.currentTimeMillis();
 System.out.println((endTime - startTime)/1000+"s");
 System.out.println("test sql batch--->2000.....");
 } catch (SQLException e) {
 e.printStackTrace();
 }finally {
 if(conn!=null) {
 try {
 conn.close();
 } catch (SQLException e) {
 e.printStackTrace();
 }
 }
 }
 }

你会发现时间会是30s 左右。
2k行的数据插入就30秒 。
2w行数据插入时间为940秒(约16min)。

2、修改自动提交的 batch

public static void main(String[] args) {
 Connection conn = getConn(lsqlurl, luser, lpassword);
 long startTime = System.nanoTime();
 try {
 conn.setAutoCommit(false);
 PreparedStatement pst = conn.prepareStatement("insert into test (id,name,age) values (?,?,?)");
 for (int i = 0; i < 2000; i++) {
 pst.setInt(1, 3);
 pst.setString(2, "xx");
 pst.setInt(3, 10);
 pst.addBatch();
 }
 pst.executeBatch();
 conn.commit();
 long endTime = System.nanoTime();
 System.out.println((endTime - startTime)/1000000+"ms");
 System.out.println("test sql batch--->2000.....");
 } catch (SQLException e) {
 try {
 conn.rollback();
 } catch (SQLException e1) {
 e1.printStackTrace();
 }
 e.printStackTrace();
 }finally {
 if(conn!=null) {
 try {
 conn.close();
 } catch (SQLException e) {
 e.printStackTrace();
 }
 }
 }
 }

2k行插入耗时大概是260ms。
2w行数据插入大概是1.4s。
其实结果很明显的。

因为在使用batch时数据量达到一定的值后数据库会自动提交。而不是你执行executeBatch时再执行。所以我们需要修改自动提交变成手动提交。
这里还有一个问题是:当你实在执行事务时,一旦出错的时候,自动提交会帮你rollback,手动提交时就应该自己进行回退。
所以在catch里需要添加 rollback 。

好了,综上我们可以使用自动提交的batch进行大量数据的插入。

下载本文
显示全文
专题