赞
踩
笔者想复现一个索引失效的场景,故需要一定规模的数据作支撑,所以需要向数据库中插入大约一百万条数据。那问题就来了,我们应该怎样插入才能使插入的速度最快呢?
为了更加贴合实际,下面的演示只考虑使用 Mybaits 作为 ORM 框架的情况,不使用原生的 JDBC。下面,我们只向数据库中插入十万条数据作为演示。
Java 代码为:
public void insertByMybatis() {
for (int i = 0; i < 100000; i++) {
InvoiceOrder invoiceOrder = new InvoiceOrder();
invoiceOrder.setOrderId(UUID.randomUUID().toString().replace("-", ""));
invoiceOrder.setInvoiceId(UUID.randomUUID().toString().replace("-", ""));
invoiceOrder.setInvoiceName("test" + i);
invoiceOrder.setInvoiceDate(DateUtil.date().offset(DateField.HOUR_OF_DAY, -i));
invoiceOrder.setOrderTime(DateUtil.date().offset(DateField.HOUR_OF_DAY, -i));
orderMapper.insertSelective(invoiceOrder);
}
}
插入结果:
同步插入10万条数据的耗时为 242s
@Autowired private DataSourceTransactionManager transactionManager; public void insertByMybatisWithNoTransaction() { DefaultTransactionDefinition def = new DefaultTransactionDefinition(); def.setPropagationBehavior(TransactionDefinition.PROPAGATION_REQUIRES_NEW); TransactionStatus status = transactionManager.getTransaction(def); for (int i = 0; i < 100000; i++) { InvoiceOrder invoiceOrder = new InvoiceOrder(); invoiceOrder.setOrderId(UUID.randomUUID().toString().replace("-", "")); invoiceOrder.setInvoiceId(UUID.randomUUID().toString().replace("-", "")); invoiceOrder.setInvoiceName("test" + i); invoiceOrder.setInvoiceDate(DateUtil.date().offset(DateField.HOUR_OF_DAY, -i)); invoiceOrder.setOrderTime(DateUtil.date().offset(DateField.HOUR_OF_DAY, -i)); orderMapper.insertSelective(invoiceOrder); } transactionManager.commit(status); }
插入结果:
直接插入数据,并取消事务自动提交,耗时为 28s
Java 代码为:
/** * Mybatis批量插入 */ public void batchInsertByMybatis() { List<InvoiceOrder> invoiceOrders = new ArrayList<>(); for (int i = 0; i < 100000; i++) { InvoiceOrder invoiceOrder = new InvoiceOrder(); invoiceOrder.setOrderId(UUID.randomUUID().toString().replace("-", "")); invoiceOrder.setInvoiceId(UUID.randomUUID().toString().replace("-", "")); invoiceOrder.setInvoiceName("test" + i); invoiceOrder.setInvoiceDate(DateUtil.date().offset(DateField.HOUR_OF_DAY, -i)); invoiceOrder.setOrderTime(DateUtil.date().offset(DateField.HOUR_OF_DAY, -i)); invoiceOrders.add(invoiceOrder); if (i % 1500 == 0) { orderMapper.insertBatch(invoiceOrders); invoiceOrders = new ArrayList<>(); } } // 最后插入剩下的数据 orderMapper.insertBatch(invoiceOrders); }
结果:
批量插入10条数据耗时 4s
@Autowired private DataSourceTransactionManager transactionManager; public void batchInsertByMybatisWithNoTransaction() { DefaultTransactionDefinition def = new DefaultTransactionDefinition(); def.setPropagationBehavior(TransactionDefinition.PROPAGATION_REQUIRES_NEW); TransactionStatus status = transactionManager.getTransaction(def); List<InvoiceOrder> invoiceOrders = new ArrayList<>(); for (int i = 0; i < 100000; i++) { InvoiceOrder invoiceOrder = new InvoiceOrder(); invoiceOrder.setOrderId(UUID.randomUUID().toString().replace("-", "")); invoiceOrder.setInvoiceId(UUID.randomUUID().toString().replace("-", "")); invoiceOrder.setInvoiceName("test" + i); invoiceOrder.setInvoiceDate(DateUtil.date().offset(DateField.HOUR_OF_DAY, -i)); invoiceOrder.setOrderTime(DateUtil.date().offset(DateField.HOUR_OF_DAY, -i)); invoiceOrders.add(invoiceOrder); if ( i % 10000 == 0) { orderMapper.insertBatch(invoiceOrders); invoiceOrders = new ArrayList<>(); } } // 最后插入剩下的数据 orderMapper.insertBatch(invoiceOrders); transactionManager.commit(status); }
结果为:
耗时4s,与批量插入自动提交事务方式的耗时相差不大
public void asyncInsertTest() throws InterruptedException { for (int i = 0; i < THREAD_COUNT; i++) { int finalI = i; threadPoolExecutor.submit(new Runnable() { @Override public void run() { List<InvoiceOrder> invoiceOrders = new ArrayList<>(); int begin = finalI * 20000; int end = 20000 * (finalI + 1); for (int id = begin; id < end; id++) { InvoiceOrder invoiceOrder = new InvoiceOrder(); invoiceOrder.setId((long) id); invoiceOrder.setOrderId(UUID.randomUUID().toString().replace("-", "")); invoiceOrder.setInvoiceId(UUID.randomUUID().toString().replace("-", "")); invoiceOrder.setInvoiceName("test" + id); invoiceOrder.setInvoiceDate(DateUtil.date().offset(DateField.HOUR_OF_DAY, -id)); invoiceOrder.setOrderTime(DateUtil.date().offset(DateField.HOUR_OF_DAY, -id)); invoiceOrders.add(invoiceOrder); } orderMapper.insertBatch(invoiceOrders); } }); } threadPoolExecutor.shutdown(); while (!threadPoolExecutor.isTerminated()) { Thread.sleep(100); // 等待线程池中的任务执行完毕 } }
结果为:
耗时 3s,与同步插入相比,有很大的性能提升,这里的每条线程都是使用批量插入的模式,一次事务提交。
SpringBoot 中默认使用的数据库连接池是 Hikari,这里我们换用 Druid 和 c3p0 连接池,同步插入10万条数据。
Druid 依赖
<dependency>
<groupId>com.alibaba</groupId>
<artifactId>druid-spring-boot-starter</artifactId>
<version>1.2.8</version>
</dependency>
配置 Druid 文件信息
spring:
datasource:
driver-class-name: com.mysql.cj.jdbc.Driver
url: jdbc:mysql://localhost:3306/test_db?characterEncoding=utf-8&serverTimezone=Hongkong&useSSL=false
username: root
password: ezreal
type: com.alibaba.druid.pool.DruidDataSource
server:
port: 8080
结果如下:
c3p0 依赖
<dependency>
<groupId>com.alibaba</groupId>
<artifactId>druid-spring-boot-starter</artifactId>
<version>1.2.8</version>
</dependency>
配置 c3p0 文件信息
spring:
datasource:
driver-class-name: com.mysql.cj.jdbc.Driver
url: jdbc:mysql://localhost:3306/test_db?characterEncoding=utf-8&serverTimezone=Hongkong&useSSL=false
username: root
password: ezreal
type: com.alibaba.druid.pool.DruidDataSource
server:
port: 8080
结果为:
对比方式 1 和 方式 3,前者是单次循环插入,后者是批量插入,分别耗时 242s 和 4s,显然批量插入的效率高。
这个问题可以分三个方面网络、数据库交互、事务、索引分析:
对于索引来说,可能会存在页分裂和页合并的情况,比如说插入时数据库的主键不是自增的。
对于单次循环插入,每次都需要重复以上三个方面的内容,非常影响性能;而对于批量插入来说,每次操作大量的数据,减少网络、数据库交互、事务等操作,提高插入的效率;
对比方式 1 和 方式 2,前者是每次插入就进行一次事务操作,而后者是提前开启事务,等到所有的数据都 insert 后,再提交事务,前者耗时 242s,后者耗时 28s,显然只进行一次事务操作的插入效率高。
回答这个问题之前,我们需要了解一次事务执行的流程,以 insert 操作为例:
这里主要涉及到两处内存操作和两处磁盘操作:
将 undolog 写入到 undolog buffer 中;
将 redolog 写入到 redolog buffer 中;
在事务提交后,InnoDB 会把 redo log 从 redolog buffer 写入到磁盘中;
将该操作的 binlog 也写入到磁盘中
所以,对于方式1,每一次插入数据都要进行两次的磁盘 IO,然而磁盘的读取速度是非常耗时的,大量的磁盘 IO就会影响插入的性能。如果能够减少大量的磁盘 IO,即减少事务开启的次数,那么就可以大大减少插入的耗时。
涉及到事务就可能会涉及到锁的竞争。一个事务在插入一条记录时需要判断一下插入位置是不是被别的事务加了所谓的 gap lock,如果有的话,插入操作就需要等待,直到拥有 gap lock 的事务释放了锁。
InnoDB 规定,在上述等待过程中,会在内存中生成一个锁结构,表明有事务想在间隙中插入一条新记录,但是现在在等待。所以 InnoDB 就把这种类型的锁名称命名为
Insert Intention Locks
,我们称为插入意向锁。
通过并发执行多个插入操作来提高数据插入效率:
至于数据库连接池的选择,这里提供一份大佬写的文章,里面详细比较了常见数据库连接池的性能测试。
Copyright © 2003-2013 www.wpsshop.cn 版权所有,并保留所有权利。