gpt4 book ai didi

java - 处理超过 100k 条数据记录

转载 作者:行者123 更新时间:2023-11-30 11:12:43 25 4
gpt4 key购买 nike

我正在开发 spring-mvc 应用程序。

我有处理超过 10 万条数据记录的要求。而且我不能让它依赖于数据库,所以我必须在 java 中实现所有逻辑。

现在我正在创建多个线程并为每个线程分配 1000 条记录以进行处理。

我正在使用 org.springframework.scheduling.concurrent.ThreadPoolTask​​Executor

列表项

问题:

  1. 我应该使用的建议线程数。
    • 我应该在线程之间平均分配记录数还是
    • 我应该为每个线程提供预定义的记录数并增加线程数吗?
  2. ThreadPoolTask​​Executor 没问题,还是我应该使用其他东西?
  3. 我应该在 Java 中还是在数据库中维护分配给每个线程的记录 ID? (注意:如果使用数据库,那么我会为每条记录进行额外的数据库调用,并在处理该记录后对其进行更新)

任何人都可以建议我在这种情况下的最佳做法。

任何类型的建议都会很棒。

注意:执行时间是主要问题。

更新:

处理包括拥抱数据库调用的次数。意味着您可以将其视为在 java 中完成的搜索。获取一条记录,然后将该记录与 db 中的其他记录进行比较(在 java 中)。然后再次记录另一条记录并执行相同的操作。

最佳答案

为了处理海量数据,可以使用Spring Batch框架。
检查这个Doc .
维基page .

关于java - 处理超过 100k 条数据记录,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/26751640/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com