- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我遇到一个情况,需要对近50万条记录进行数据转换。下面是过程
- From Java we will call the DB and get a set of records (Older data)
- These records will be passed to a webservice as input
- The webservice response will be updated into the DB (correct data)
我对此做了一些研究,发现 SQL Batch 是一个不错的选择。
我打算做的是
- Add 10,000 records to a batch (preparedstmnt. addBatch ();) via for loop
- Then do a commit ( con.commit();)
- preparedstmnt.clearBatch()
- And then go back to step one until entire records are completed
尊敬的专家,您对这种方法有何看法。如果您有更好的想法,请也建议我这样做。此外,如果您在从 java 进行批量更新时有一些建议要记住,请也让我知道
还有 executeBatch() 最后会调用 clearBatch() 吗?或者我们是否需要在开始下一批之前在每批结束时显式调用 clearBatch?
最佳答案
基本上,如果您使用 Spring Batch,它看起来像这样。正如我所说,其中一个优点是:“这很简单”。易于实现和 Spring 驱动,这意味着如果它也是 Spring 驱动的,它将很好地适合您当前的体系结构。这是大约。你的案例会是什么样子:
@Configuration
@EnableBatchProcessing
public class DBBatchProcess {
@Bean
public DataSource dataSource() {
BasicDataSource dataSource = new BasicDataSource();
dataSource.setDriverClassName("com.mysql.jdbc.Driver");
dataSource.setUrl("jdbc:mysql://localhost:3306/myDB");
dataSource.setUsername("username");
dataSource.setPassword("password");
return dataSource;
}
@Bean
public ItemReader<InputEntity> reader(DataSource dataSource) {
// Use some database reader. Like JdbcCursorItemReader, JdbcPagingItemReader etc.
return new MyDatabaseReader();
}
@Bean
public ItemProcessor<InputEntity, OutputEntity> processor() {
// Do your conversion. Convert values from incoming entity to outcoming entity.
return new MyProcessor();
}
@Bean
public ItemWriter<OutputEntity> writer() {
// Receive outcoming entity from processor and write it to database. You can use JdbcBatchItemWriter for instance.
return new MyDatabaseWriter();
}
// Create a step. Provide reader, processor and writer. Determine chunk size.
@Bean
public Step step(StepBuilderFactory stepBuilderFactory, ItemReader<InputEntity> reader, ItemWriter<OutputEntity> writer,
ItemProcessor<InputEntity, OutputEntity> processor) {
return stepBuilderFactory.get("step")
.<InputEntity, OutputEntity>chunk(10000)
.reader(reader)
.processor(processor)
.writer(writer)
.build();
}
// Finally, create a job
@Bean
public Job job(JobBuilderFactory jobBuilderFactory, Step step) {
return jobBuilderFactory.get("job")
.start(step)
.build();
}
}
如果失败,您可以决定要做什么。您可以将监听器附加到步骤或作业等。
关于java - 一次性数据转换的JDBC批量更新,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/32004608/
我一直在使用 Databricks JDBC 驱动程序版本 2.6.22,并尝试升级到 2.6.27。但是,升级后我收到消息说我的 JDBC URL 在尝试连接时无效。这些 JDBC URL 与旧版本
似乎JDBC Spec没有详细说明数据源连接池中alive or idle connections的准确含义。它只是具体实现吗? DBCP2如何或 HikariCP实际检查连接状态? 下面没有事件事务
在“XPages 扩展库”一书中,第 12 章,第 409 页有一个 JDBC 连接文件的例子: org.apache.derby.jdbc.EmbeddedDriver jdbc:
谁能告诉我 jdbc 是如何工作的?它如何设法与 DBMS 通信?因为 DBMS 可能是用其他编程语言编写的。 最佳答案 与数据库的通信由 JDBC 驱动程序处理,这些驱动程序可以使用各种策略与数据库
我想知道是否有人可以帮助我解决这个问题。我在尝试使用 Spring JDBC 编写代码时遇到了一个问题。当我运行服务器时,我收到了标题中提到的消息。我google了一下,有人说你应该导入ojdbc.j
我只是想运行一个示例 hivejdbc 客户端程序,但它给我一个内存不足的错误。 import java.sql.SQLException; import java.sql.Connection; i
我需要将 Google Spreadsheet 与 JasperReports Server 一起使用,为此我需要一个用于 Google Spreadsheet 的 JDBC 连接器。 我找到了这个
我需要将大量行(最多 100,000 行)插入到 6 个不同的 DB2 表中。我正在使用 Java JDBC 来完成它。我想在单个数据库事务中完成所有操作,以便在遇到任何问题时可以回滚整个操作。在某处
再次为自己是 Jmeter 新手道歉——我对 JDBC 请求有点困惑——我在过去的 3 个小时里浏览了这个网站上的帖子——但我找不到任何相关的东西(除非我我错过了一些东西)。 我的环境:Jmeter
我们正在创建一个带有 MySQL 后端的 XPages 应用程序。应用程序将被多个客户使用。每个都有自己的 NSF 数据库和相应的 MySQL 数据库。每个客户都有自己的 MySQL 用户名。我们正在
昨天我遇到了一个大问题。在我当前的项目中,我使用 Oracle 的 JDBC 的 ojdbc6 实现进行连接,但我还需要处理例如 oracle 8 数据库,这对于这个 JAR 是完全不可能的。 你会说
这个问题在这里已经有了答案: Closing JDBC Connections in Pool (3 个答案) 关闭 2 年前。 假设我有以下代码 DataSource source = (Data
我有 Informix 数据库,时间戳字段定义为 YEAR TO SECOND。 当我使用 JDBC rs.getString(column) 显示此字段时,它使用带毫秒的格式,因此此字段如下所示:
看完本教程之后; https://www.youtube.com/watch?v=ZnI_rlrei1s 我正在尝试使用logstash和jdbc获取我的本地主机mysql(使用laravel val
有人给我小费。 { "type": "jdbc", "jdbc": { "driver": "com.microsoft.sqlserver.jdbc.SQLServerDriver"
已结束。此问题正在寻求书籍、工具、软件库等的推荐。它不满足Stack Overflow guidelines 。目前不接受答案。 我们不允许提出寻求书籍、工具、软件库等推荐的问题。您可以编辑问题,以便
我正在尝试从mysql表中将1600万个文档(47gb)索引为elasticsearch索引。我正在使用jparante's elasticsearch jdbc river执行此操作。但是,在创建河
我正在尝试使用JDBC河将我的MySQL数据库复制到我的ElasticSearch索引中。 但是,每当我启动服务器时,与MySQL表的count(*)相比,创建的文档数量就增加了一倍。我通过清空索引并
使用新的logstash jdbc 连接器: https://www.elastic.co/guide/en/logstash/current/plugins-inputs-jdbc.html后续的
已结束。此问题正在寻求书籍、工具、软件库等的推荐。它不满足Stack Overflow guidelines 。目前不接受答案。 我们不允许提出寻求书籍、工具、软件库等推荐的问题。您可以编辑问题,以便
我是一名优秀的程序员,十分优秀!