其他

Spring / Hibernate 应用性能调优

2017-07-05 程序源

对大部分典型的Spring/Hibernate企业应用来说,应用的性能大部分由持久层的性能决定。


这篇文章会重温一下怎么去确认我们的应用是否是”数据库依赖(data-bound)”(译者注:即非常依赖数据库,大量时间花在数据库操作上),然后会大概过一下7个常用的提升应用性能的速效方案。


怎么确定应用是否是“数据库依赖”


确认一个应用是是否是数据库依赖,首先通过在一些开发环境中做基本的运行,可以使用VisualVM来进行监控。VisualVM是一个和JDK一起发布的Java性能调优器,可以通过命令行jvisualvm运行。


执行Visual VM后,尝试下面的步骤:


  1. 双击你正在运行的应用

  2. 选择抽样器(Sampler)

  3. 点击设置复选框

  4. 选择只调优包,并且限定如下的包类型:

  • 你的应用程序包

  • org.hibernate.*

  • org.springframework.*

  • 你的数据库jar包名,如oracle.*

  • 点击抽样(Sample) CPU


CPU抽样一个典型的“数据库依赖”应用将会得到类似下面的结果:



我们可以看到Java客户端进程花费了56%的时间在等待数据库从网络中返回结果。


这是一个很好的标志,表示正是数据库查询造成了应用的缓慢。Hibernate反射调用占了32.7%是正常,而且我们对此也无能为力。


性能调优第一步 —— 得到基准运行值(baseline run)


性能调优的第一步是为程序定义一个基准运行值。我们需要一系列可以使程序运行的有效输入数据,它必须跟在生产环境运行类似。


最主要的区别是基准运行需要在更短的时间内运行完成,比较理想的指导值是执行时间为5-10分钟。


什么是好的基准(baseline)?


一个好的基准需要有下面的特性:


  • 保证功能正确

  • 输入数据在可变性上和生产环境类似

  • 在短时间内可以完成

  • 在基准运行中做的优化可以直接影响到完整运行


取一个好的基准可以解决一大半的问题。


什么是不好的基准


例如,在一个批处理运行的执行电话数据记录的电信系统中,取得前10000条记录会是一个错误的做法。


原因是:前10000条有可能大部分是语音电话,但未知的性能问题却是在处理短信通道(SMS traffic)。在一个大批量执行的过程中获取前面的一些记录不是一个好的基准,有可能会得到错误的结论。


收集SQL日志和查询时间


SQL查询和执行时间可以使用如log4jdbc来进行收集。可以看这篇博客关于如何使用log4jdbc来收集SQL查询 —— 通过log4jdbc来改进Spring/Hibernate的SQL日志(http://blog.jhades.org/logging-the-actualreal-sql-queries-of-a-springhibernate-application/).


查询执行时间是在Java客户端进行计算的,它包含了到数据库的网络往返请求耗时。SQL查询日志看起来就像这样:


16 avr. 2014 11:13:48 | SQL_QUERY /* insert your.package.YourEntity */ insert into YOUR_TABLE (...) values (...) {executed in 13 msec}


Prepared statements自己也是很好的信息源——它允许识别经常执行的查询类型。根据这篇博客,可以很简单地记录——Hibernate在哪里,为什么做这个SQL查询(http://blog.jhades.org/how-to-find-out-why-hibernate-is-doing-a-certain-sql-query/)。


SQL日志可以得到什么数据


SQL日志可以回答这些问题:


  • 最慢的查询是什么?

  • 最频繁的查询是什么?

  • 生成主键花了多少时间?

  • 是否有数据可以通过缓存受益?


怎么转换SQL日志


也许对于大日志文件最可行的方案就是使用命令行工具。这个方法的优点是比较灵活。


只需要耗费点时间写一小段脚本或命令,我们可以抽取大部分任何需要的数据。任何命令行都可以按你喜欢的方式去使用。


如果你使用Unix命令行,bash会是一个很好的选择。Bash也可以在Windows工作站中使用,使用例如Cygwin或Git这些包含bash命令行的工具。


常用的速效方案


下面的速效方案可以识别Spring/Hibnerate应用中的常见性能问题和对应的解决方案。


速效方案1 —— 减少主键提前生成


在一些插入密集(intert-intensive)的处理中,主键生成策略的选择有很大的影响。一个常见的生成ID的方法是使用数据库的序列(sequences),通常每个表一个,以避免插入不同表时的冲突。


问题在于,如果插入50条记录,我们希望可以避免50次通过数据库获取50个ID的网络往返,而不使Java进程在大部分时间内等待。


Hibernate通常是怎么处理这个的?


Hibernate提供了新优化的ID生成器可以避免这个问题。对于sequences,会默认使用一个HiLo id生成器。HiLo序列生成器的工作过程如下:


  • 调用一次sequence返回1000(最大值)

  • 如下计算50个ID:

  • 1000 * 50 + 0 = 50000

  • 1000 * 50 + 1 = 50001

  • 1000 * 50 + 49 = 50049, 达到小值 (50)

  • 调用sequence获取更大的值1001 …依此类推…


所以从第一次sequence调用时,就已经生成了50个key了,减少了大量的网络往返耗时。


这些新优化的主键生成器在Hibernate4中是默认开启的,在需要时,可以通过设置hibernate.id.new_generator_mappings为false进行关闭。


为什么主键生成仍然是个问题?


问题在于,如果你定义主键生成策略为AUTO,优化生成器仍然是关闭的,你的应用仍然还是会进行很大数量的sequence调用。


为了保证新的优化生成器被启用,确保使用SEQUENCE策略而不是AUTO:


@Id

@GeneratedValue(strategy = GenerationType.SEQUENCE, generator = "your_key_generator")

private Long id;


有了这个小改变,’插入密集’的应用会有10%-20%的提升,而并不需要做其他的代码修改。


速效方案2 —— 使用JDBC批量插入/修改


对于批量的程序,JDBC驱动通常会提供称之为’JDBC批量插入/修改’的优化方案用于减少网络往返消耗。在使用它们时,插入/修改在发送到数据库前会在驱动层排队(译者注:达到一定的数量后会一次性发送多条SQL进行执行)。


当指定的阀值达到后,队列中的批量语句将会被一次性发送到数据库。这防止了驱动一个接一个的发送请求,浪费多个网络请求。


下面是用于启用批量插入/更新的entity manager factory的配置:


<prop key="hibernate.jdbc.batch_size">100</prop>

<prop key="hibernate.order_inserts">true</prop>

<prop key="hibernate.order_updates">true</prop>


只是设置JDBC batch size不会生效。这是因为JDBC驱动只有在具体某个相同的表接收到插入/更新时才会把插入当成批量处理。


如果接收到对一个新表的插入命令,JDBC驱动会在执行新表的批量语句前先送出上一个表的批量的语句。


使用Spring Batch时也有隐晦地使用到一个类似的功能。这个优化可以很简单地为你的“插入密集”应用节省30%到40%的时间,而不需要修改一行代码。


速效方案3 —— 定期刷新和清空Hibernate session


当添加/修改数据库数据时,为了防止它们在session关闭后被重新修改,Hibnerate会在session中保持已经持久化的实体的版本。


但很多时候,在插入数据库完成后,我们可以安全地丢弃实体。这可以在Java客户端释放内存,防止由于长时间运行Hibernate session造成的性能问题。


这种长时间运行的session应该被尽量避免,但如果由于某些原因确实需要使用,下面的代码展示了怎么继续保存内存引用:


entityManager.flush();

entityManager.clear();


这个flush会触发发送操作,新实体的插入操作会被立刻发送到数据库。clear会从session中释放新实体。


速效方案4 —— 减少Hibernate提前的dirty-check


Hibernate使用称之为dirty-checking的内部的机制来跟踪修改的实体。这个机制并不基于实体的equals和hashcode方法。


Hibnerate竭尽所能使dirty-checking的性能损耗降到最小,只有在需要的时候才进行dirty-check,但这个机制依然是会有损耗的。在有大量字段的表时尤其需要注意。


在执行任何优化前,最重要的就是使用VisualVM计算一下dirty-check的损耗。


怎么避免dirty-check


在Spring中,我们所知的业务方法是只读的,dirty-check可以通过下面的方法进行关闭:


@Transactional(readOnly=true)

public void someBusinessMethod() {

....

}


另外一个可选的避免dirty-check的方法就是使用Hibnerate无状态Session(Stateless Session),在文档中有详细描述。


速效方案5 —— 查找“坏”查询方案


检查一下在最慢查询列表中的查询,看看它们是否有好的查询方案。最常见的“坏”查询方案是:


  • 全表查询(Full table scans):它发生在当表由于缺失索引或过期的表数据而被全量扫描。


  • 完全笛卡尔连接(Full cartesian joins):这意味着多个表计算完全笛卡尔积。检查一下是否缺少连接条件,或是否可以通过分割语句来避免。


速效方案6 —— 检查错误的提交间隔


如果你正在做批量处理,提交的间隔在性能结果中可以造成巨大的差别,可以达到10-100倍。


确认一个提交的间隔是所期望的(Spring Batch一般是100-1000)。它通常是因为这个参数没有正确配置。


速效方案7 —— 使用二级和查询缓存


如果发现某些数据很适合缓存,那么看一下这篇文章怎么去配置Hibernate缓存:Hibernate二级/查询缓存的陷阱(http://blog.jhades.org/setup-and-gotchas-of-the-hibernate-second-level-and-query-caches/)。


结论


要解决应用的性能问题,要做的最重要的就是收集一些可以找到当前瓶颈所在的数据。没有一些数据,基本上不可能在有效的时间内猜到问题在哪里。并且,虽然不是所有,但很多的典型的“数据库依赖”的应用性能陷阱都可以通过使用Spring Batch框架在第一时间避免。


小猎推荐

优质IT工作推荐渠道

您可能也对以下帖子感兴趣

文章有问题?点此查看未经处理的缓存