这篇文章主要介绍了mybatis和mybatisplus批量插入问题怎么解决的相关知识,内容详细易懂,操作简单快捷,具有一定借鉴价值,相信大家阅读完这篇mybatis和mybatisplus批量插入问题怎么解决文章都会有所收获,下面我们一起来看看吧。批量插入是我们日常开放经常会使用到的场景,一般情况下我们也会有两种方案进行实施,如下所示。方案一 就是用 for 循环循环插入:优点:JDBC 中的 PreparedStatement 有预编译功能,预编译之后会缓存起来,后面的 SQL 执行会比较快并且JDBC 可以开启批处理,这个批处理执行非常给力。缺点:很多时候我们的 SQL 服务器和应用服务器可能并不是同一台,所以必须要考虑网络 IO,如果网络 IO 比较费时间的话,那么可能会拖慢
SQL 执行的速度。再来说第二种方案,就是生成一条 SQL 插入:优势:这种方案的优势在于只有一次网络 IO,即使分片处理也只是数次网络 IO,所以这种方案不会在网络 IO 上花费太多时间。缺点一是 SQL 太长了,甚至可能需要分片后批量处理;缺点二是无法充分发挥 PreparedStatement 预编译的优势,SQL 要重新解析且无法复用;三是最终生成的 SQL
太长了,数据库管理器解析这么长的 SQL 也需要时间。在jdbc连接后面加上 rewriteBatchedStatements=true ,加上后才是真正的批量插入。方案一:使用foreach进行插入(生成一条 SQL 插入)mapper文件调用方法插入了1000条数据,耗时535毫秒。插入了50000条数据,直接报错。报错原因是因为我们一条SQL进行插入导致SQL太长解决办法:1.修改MySQL配置2.对新增数据进行分片方案二:一条条插入mapper测试代码插入了1000条数据,耗时959毫秒。插入50000条数据,耗时11214毫秒。对比分析:如果我们批量插入少部分数据,可以使用方式一,一条SQL进行插入。这样是比较快的。如果我们插入数据达到,1w条,10来万条,这时建议用方式二进行插入是比较快的。使用saveBatch()方法进行批量插入插入50000条数据,耗时19516毫秒源码分析这里注意 return 中的第三个参数,是一个 lambda 表达式,这也是 MP 中批量插入的核心逻辑,可以看到,MP 先对数据进行分片(默认分片大小是 1000),分片完成之后,也是一条一条的插入。继续查看 executeBatch 方法,就会发现这里的 sqlSession 其实也是一个批处理的 sqlSession,并非普通的 sqlSession。和我们mybatis使用的方法二一致。比如,如下这种一对多场景。新增的时候保存都好理解,形成一个数组一起保存。而修改的时候就有点难处理了,比如我修改了第二条,删除了第三条,这时统一保存应该怎么处理?使用 ON DUPLICATE KEY UPDATE (发生主键冲突就更新,没有发生主键冲突就新增)有时候由于业务需求,可能需要先去根据某一字段值查询数据库中是否有记录,有则更新,没有则插入。这个时候就可以用到ON DUPLICATE key update这个sql语句了mapper如下所示或者在使用mybatisplus时,使用saveOrUpdate()方法进行一条数据的新增或更新。 saveOrUpdateBatch()方法进行批量数据的新增或更新。关于“mybatis和mybatisplus批量插入问题怎么解决”这篇文章的内容就介绍到这里,感谢各位的阅读!相信大家对“mybatis和mybatisplus批量插入问题怎么解决”知识都有一定的了解,大家如果还想学习免费云主机域名更多知识,欢迎关注百云主机行业资讯频道。
本篇内容介绍了“docker怎么查看容器启动命令”的有关知识,在实际案例的操作过程中,不少人都会遇到这样的困境,接下来就让小编带领大家学习一下如何处理这些情况吧!希望大家仔细阅读,能够学有所成!eg:docker ps 查看正在运行的容器:该命令主要是为了详细…
免责声明:本站发布的图片视频文字,以转载和分享为主,文章观点不代表本站立场,本站不承担相关法律责任;如果涉及侵权请联系邮箱:360163164@qq.com举报,并提供相关证据,经查实将立刻删除涉嫌侵权内容。