- android - 多次调用 OnPrimaryClipChangedListener
- android - 无法更新 RecyclerView 中的 TextView 字段
- android.database.CursorIndexOutOfBoundsException : Index 0 requested, 光标大小为 0
- android - 使用 AppCompat 时,我们是否需要明确指定其 UI 组件(Spinner、EditText)颜色
我有两个简单的示例文件,具有以下数据结构:
人.csv
0|John
1|Maria
2|Anne
和
项目.csv
0|car|blue
0|bycicle|red
1|phone|gold
2|purse|black
2|book|black
我需要收集所有文件的所有相关行(具有相同标识的行,在本例中为整数 0、1 或 2),并在收集它们后对它们执行某些操作(与此问题无关)。第一组相关行(字符串列表)应如下所示:
0|John
0|car|blue
0|bycicle|red
第二组相关行:
1|Maria
1|phone|gold
等等
每个文件的实际文件大小约为 5 到 10GB。文件按第一列排序,并且首先打开 id 最小的文件进行读取。内存是一个限制因素(无法读取内存中的整个文件)。考虑到这一点,我编写了以下代码,该代码似乎可以很好地读取大部分行,然后按照我想要的方式对它们进行分组……但是,最后一部分(在我的代码中,我将日志记录计数设置为 250.000 组)花费的时间明显更长,并且内存使用量激增。
主要
public class Main {
private static int groupCount = 0;
private static int totalGroupCount = 0;
private static long start = 0;
private static int lineCount;
public static void main(String[] args) {
GroupedReader groupedReader = new GroupedReader();
groupedReader.orderReadersOnSmallestId();
long fullStart = System.currentTimeMillis();
start = System.currentTimeMillis();
lineCount = 0;
while (groupedReader.hasNext()) {
groupCount++;
List<String> relatedLines = groupedReader.readNextGroup();
for (String line : relatedLines) {
lineCount++;
}
totalGroupCount++;
if (groupCount == 250_000) {
System.out.println("Building " + NumberFormat.getNumberInstance(Locale.US).format(groupCount) + " groups took " + (System.currentTimeMillis() - start) / 1e3 + " sec");
groupCount = 0;
start = System.currentTimeMillis();
}
}
System.out.println("Building " + NumberFormat.getNumberInstance(Locale.US).format(groupCount) + " groups took " + (System.currentTimeMillis() - start) / 1e3 + " sec");
System.out.println(String.format("Building [ %s ] groups from [ %s ] lines took %s seconds", NumberFormat.getNumberInstance(Locale.US).format(totalGroupCount), NumberFormat.getNumberInstance(Locale.US).format(lineCount), (System.currentTimeMillis() - fullStart) / 1e3));
System.out.println("all done!");
}
}
GroupedReader ...省略了一些方法
public class GroupedReader {
private static final String DELIMITER = "|";
private static final String INPUT_DIR = "src/main/resources/";
private boolean EndOfFile = true;
private List<BufferedReader> sortedReaders;
private TreeMap<Integer, List<String>> cachedLines;
private List<String> relatedLines;
private int previousIdentifier;
public boolean hasNext() {
return (sortedReaders.isEmpty()) ? false : true;
}
public List<String> readNextGroup() {
updateCache();
EndOfFile = true;
for (int i = 0; i < sortedReaders.size(); i++) {
List<String> currentLines = new ArrayList<>();
try {
BufferedReader br = sortedReaders.get(i);
for (String line; (line = br.readLine()) != null;) {
int firstDelimiterIndex = StringUtils.ordinalIndexOf(line, DELIMITER, 1);
int currentIdentifier = Integer.parseInt(line.substring(0, firstDelimiterIndex));
if (previousIdentifier == -1) {
// first iteration
previousIdentifier = currentIdentifier;
relatedLines.add(i + DELIMITER + line);
continue;
} else if (currentIdentifier > previousIdentifier) {
// next identifier, so put the lines in the cache
currentLines.add(i + DELIMITER + line);
if (cachedLines.get(currentIdentifier) != null) {
List<String> local = cachedLines.get(currentIdentifier);
local.add(i + DELIMITER + line);
} else {
cachedLines.put(currentIdentifier, currentLines);
}
EndOfFile = false;
break;
} else {
// same identifier
relatedLines.add(i + DELIMITER + line);
}
}
if (EndOfFile) {
// is this close needed?
br.close();
sortedReaders.remove(br);
}
} catch (NumberFormatException | IOException e) {
e.printStackTrace();
}
}
if (cachedLines.isEmpty()) cachedLines = null;
return relatedLines;
}
private void updateCache() {
if (cachedLines != null) {
previousIdentifier = cachedLines.firstKey();
relatedLines = cachedLines.get(cachedLines.firstKey());
cachedLines.remove(cachedLines.firstKey());
} else {
previousIdentifier = -1;
relatedLines = new ArrayList<>();
cachedLines = new TreeMap<>();
// root of all evil...?
System.gc();
}
}
}
我尝试过“玩弄”显式关闭读取器并调用垃圾收集器,但我无法发现我编写的代码中的实际缺陷。
问题:
是什么导致接近文件末尾的读取速度变慢?
简单的系统日志:
Building 250,000 groups took 0.394 sec
Building 250,000 groups took 0.261 sec
Building 250,000 groups took 0.289 sec
...
Building 250,000 groups took 0.281 sec
Building 250,000 groups took 0.314 sec
Building 211,661 groups took 10.829 sec
Building [ 9,961,661 ] groups from [ 31,991,125 ] lines took 21.016 seconds
all done!
最佳答案
System.gc()
是一个请求,但不保证GC会发生。
如果您想要一种快速的方法来查看时间花在哪里,请在代码中的更多点添加更多日志记录,并将 groupCount 减少到较小的数量以查看更好的时间分割(10000?)。
如果您想正确分析并获得更好的理解,请使用 JDK 附带的工具,或者较旧的 visualvm或新的mission control .
两者都可以在 JDK 安装的 bin 文件夹中找到。
关于JavaIO : Memory/Performance issue when reading “last lines” of files using bufferedReader,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/38618793/
在 ARM 中,内存类型指定为: 正常 设备 强烈有序 在Device type里面,好像这个类型也可以区分 不可共享的设备内存 可共享设备内存 不可共享和可共享设备内存有什么区别?我们如何分别使用这
在 ARM 中,内存类型指定为: 正常 设备 强烈有序 在Device type里面,好像这个类型也可以区分 不可共享的设备内存 可共享设备内存 不可共享和可共享设备内存有什么区别?我们如何分别使用这
This diagram很清楚不同YARN和Spark内存相关设置之间的关系,除了spark.python.worker.memory。 spark.python.worker.memory 如何适应
我正在尝试使用复杂的if-else决策树来实现GLSL片段着色器。不幸的是,着色器编译器很早就失败,并出现“语法错误-内存耗尽”错误。 GLSL中的代码大小或决策树深度是否有任何限制?有什么建议如何克
什么是“标记内存”,它如何帮助减小程序大小? 最佳答案 您可能指的是 tagged union ,或更具体地说是硬件实现,如 LISP 机器中使用的标记架构。基本上是一种存储具有类型信息的数据的方法。
我的内存有问题。我不明白为什么当我的程序长时间运行时 Go 使用越来越多的内存(从不释放它)。 第一次分配后,程序使用了将近 9 MB 的内存。然后在 12 小时后,它开始以指数方式使用更多内存,直到
在 Windows 机器上,MATLAB 用户可以使用 memory或 feature memstats命令。但是,这些都不能在机器上工作,失败如下: >> memory??? Error using
引导 Linux 内核时,可以在 RAM 中加载 initramfs 存档和 DTB 文件,并将这些物理地址指定给内核。例如,使用 U-Boot,您可以执行以下操作: bootz 0x80008000
我正在学习虚拟内存的概念,但是这个问题让我困惑了一段时间。由于大多数现代计算机都使用虚拟内存,因此当程序正在执行时,操作系统应该在 RAM 和磁盘之间将数据分页进出。但为什么我们仍然遇到“内存不足”的
我在 Colab Pro+(使用高 RAM 选项)上运行神经网络时发现了这个问题。 运行时错误:CUDA 内存不足。尝试分配 8.00 GiB(GPU 0;15.90 GiB 总容量;12.04 Gi
当我在任何地方阅读基于操作系统的书籍时,考虑到时间限制和开销很高,从内存和 I\O(子系统)获取数据是昂贵的,这就是为什么在某些硬件制造商中提供一些其他方式来访问它们,如ARM7 some ISAs像
据我所知,ADS v.10 尝试将查询结果保留在内存中,直到它变得非常大。对于 __output 表和临时表也应该如此。当结果变大时,交换声明。 问题是为查询、 worker 等设置了什么内存限制?可
序言 我正在写一个小演示文稿来列出使用 Docker 时的一些“陷阱”,我也遇到了自己的一个问题。 在解释让 Docker 在没有内存限制的情况下运行的危险时,我发现它的行为不像我预期的那样。 我使用
我们有一个 ASP.NET 项目(40 个左右的 Web 表单、50 个表、相当标准的 IO 内容,并尽可能减少),很快需要部署。系统上大约有 100 个并发用户,但任何时候只有大约 20 个用户在使
我在 dotcloud 上使用 redis 内存存储,但尽管 key 已过期,但它的 used_memory 再也不会下降。从 redis-cli 使用 flushdb 或 flushall 不会导致
我使用的是 Xcode 10.2.1 和 macOS Catalina Developer Beta 2。每当我尝试使用内存图调试器时,我都会收到此错误: Memory Graph Debugger:
所以我一直在寻找这个问题的解决方案有一段时间了。我编写了一个程序来从两个单独的文本文件中获取数据,对其进行解析,然后输出到另一个文本文件和一个 ARFF 文件以供 Weka 分析。我遇到的问题是我编写
对不起,我对 erlang 文档中的以下描述不太清楚: erlang:memory() -> [{Type, Size}] with Type: "total" means: "The total a
在查看示例合约时,有时会在带有“内存”的方法中声明数组,有时则不会。有什么区别? 最佳答案 如果没有内存关键字,Solidity会尝试在存储中声明变量。 首席 Solidity 开发者 chriset
我不明白Matlab并行计算工具箱中的parfor cicle是如何与内存一起工作的:我读到它在所有worker之间共享内存(然后我认为每个worker(核心)都可以访问感兴趣的内存位置而无需制作本地
我是一名优秀的程序员,十分优秀!