spring - Chunk vs Spring Batch Size JdbcBatchItemWriter (namedParameterJdbcTemplate.batchUpdate)
问题描述
我正在处理 csv 文件中的 1,000 条记录。我想每批提交 100 条记录
Option#1 - chunk(100) and in JDBCWriter - batch.update() of the incoming list
Option#2 - Don't specify chunk rather in JDBCWriter - batchUpdate for each batch size
by processing the entire 1,000 records
哪个是最好的和好的做法?
谢谢
解决方案
推荐阅读
- google-cloud-platform - 在 terraform 中识别正确的变量类型
- apache-spark - 如何在单个 pyspark 会话中使用多个输入和多个输出流?
- azure-cognitive-services - 在选定的训练时间内,有多少 CPU/GPU 内核在使用 Azure 认知服务?
- python - dash-leaflet (geojson): 改变最后点击特征的颜色
- mysql - 是否可以在一个查询中获取所需的数据?
- html - 计算块高度的问题
- javascript - 我拿不到护照记得我在使用快速路由器
- keras - 如何在 Keras 中预测有序数组
- json - Kafka 流 JSON-POJO 反序列化异常
- list - 如何获取列表数组中项目的值并使它们成为独立列表