kettle优化之提高MySQL读写速度

       背景:在往mysql数据库中进行抽取清洗转换数据时候发现表的数据量大的时候,对表的读、写操作的速度很慢,并且是达到一定数据量以后速度会特别慢,数据量小的时候读的速度是很快。

一、优化测试效果

读写数据速度测试:5000条数读写速度测试:8min24s 即 504s

20000条数读写速度测试: 16min32s 即 992s

二、优化方案

2.1、修改数据库连接参数

命名参数 参数说明
useCompression TRUE

传输开启数据压缩 

提高传输效率

rewriteBatchedStatements TRUE 数据库重排Insert语句合并多条插入语句成为一条提交插入效率
useServerPrepStmts FALSE 数据库重排Insert语句合并多条插入语句成为一条提交插入效率

改变后速度:

5000条数据的读写结果:3.1s

200000条数据读写速度测试: 2min18s 即138s

2.2、修改spoon.bat内存大小

参数参考

 -Xmx1024m设置JVM最大可用内存为1024M。 -Xms512m设置JVM初始内存为512m。此值可以设置与-Xmx相同      以避免每次垃圾回收完成后JVM重新分配内存

必须注意:-Xmx必须小于等于系统内存的1/4,要不然会报错,-Xms大于-Xmx。当系统内存为4G时-Xmx不能大于1G,当系统内存为8G时或更大时,java(JDK)版本必须是64位的才能识别出来,此时-Xmx可以为2G或更高。个人建议内存设置不要超出整个服务器内存的2/3。

2.3、适当的提高数据集的大小

设置方法右击转换空白处,选择转换设置,在杂项中进行设置。

2、提交记录数量更改为10000,即每次提交10000条记录(前提是没有并发的设置,或错误后被插入/更新执行)

2.4、设置并发处理

方法start设置多个并发任务鼠标右击start,选RUN Next Entriein Parallel

2.5、开启多线程

需要添加右键然后填写数量为2,enter即可

      特别注意:在多线程insert/update场景中,如果更新的key并非唯一,则有可能产生死锁(多个线程一次更新同一行数据),因此设置并发的时候最好关键字主键或唯一字段,插入更新的提交数量建议设置为1。

2.6、点击“确定”比较

输入表的数据库中参数配置如下

1、增加读的操作

useServerPrepStmts:true

cachePrepStmts:true    

2、读取缓存,设置过高消耗内存也会高

defaultFetchSize:10000

useCursorFetch:true

3、压缩数据传入,与mysql服务端进行通信采用压缩

useCompression:true

具体配置参考如下

三、总结

使用kettle时必须要注意点:

1、检查连接数据库的驱动版本,要做到jar包的版本数据库版本接近;

2、创建数据库连接url中必须加上以下两个参数

?autoReconnect=true&failOverReadOnly=false

3、创建数据库连接的参数中必须加上以下三个参数:(用于增加数据写入速度)

useServerPrepStmts=falserewriteBatchedStatements=trueuseCompression=true

4、创建数据库连接,如果使用连接池,必须设置maxIdl值较大:

5、必须根据kettle软件所在的硬件,修改spoon.bat(window)或spoon.sh(linux)的内存大小

更多优秀文章,请扫码关注个人微信公众号或搜索程序猿小杨”添加。

原文地址:https://blog.csdn.net/qq_35989920/article/details/130401215

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任

如若转载,请注明出处:http://www.7code.cn/show_33080.html

如若内容造成侵权/违法违规/事实不符,请联系代码007邮箱suwngjj01@126.com进行投诉反馈,一经查实,立即删除

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注