gpt4 book ai didi

c - C 中的多线程读取和打印非常大的文件

转载 作者:行者123 更新时间:2023-11-30 16:09:49 28 4
gpt4 key购买 nike

我有一个非常大的文件需要读取并执行以下操作。

  1. 打开大文件(>50MB)并逐行读取
  2. 执行一些比较操作
  3. 打印比较结果
  4. 返回

当我在单线程 C 代码中执行上述序列时,它工作得很好,现在我尝试通过使用多线程创建 3 个线程来使其更快(我有权使用 3 个线程来使该过程更快)阅读并比较,但我没有这样做,因为我看到它只是重复了一些比较。

有什么方法可以让我使用 3 个线程读取文件的 3 个不同部分并执行某些操作吗?

最佳答案

请注意,这个答案是一个“技巧”(或者可能是分配是一个技巧?),因为它并没有真正使过程更快。答案假设标准 Linux 计算机具有合理的 (4G+) 内存。

简短回答:在任何不太好的配置中,数据都会移入操作系统缓冲区,问题实际上是 CPU 限制,而不是 IO 限制。

长答案:

虽然 50MB 文件对于人类来说是“大”,但对于每台现代计算机来说却是“小”。实际上,数据将移入操作系统缓冲区并保留在那里,除非系统需要内存用于其他任务。

给定的数据位于(操作系统)内存中,问题(除了初始调用之外)不是 IO 限制,而是 CPU 限制。对于这个 3 线程 MT 程序来说,它会发挥神奇作用。问题变成了如何将工作分散到 3 个文件中。理想情况下,3 个线程会将文件分成 3 个(几乎)相等的 block ,每个 block 单独进行处理。

解决方案是伪代码,实际代码必须处理分割 block 的行的处理、错误检查等。

FILE *data_fp ;
static int block_size ;

main() {
data_fp = fopen(...) ;
int filesize = ftell(fp) ;
block_size = filesize/6 ;

for (int i=0 ; i<N_THREADS ; i++ ) {
start_offset = filefize*((float i)/N_THREADS) ;
pthread_create(search_start, ... , &start_offset) ;
}
}

search_start(void *arg) {

// Extract the offset to start
long start_offset = * (long *) arg ;
// Create separate FILE*, with separate position, buffers, etc.
FILE *local_fp = fdopen(fileno(data_fp), "r") ;

// Position at the thread specific offset
fseek(local_fp, start_offset, SEEK_SET) ;

char buff[256] ; // max line size
// Loop until EOF, some exit condition, or block_size characters processed
for (long p = 0 ; p < block_size && fgets(buff, sizeof(buff), local_fp) ; p += strlen(buff)) {
// Compare, check, whatever is needed
...
if (need_to_stop) break ;
} ;
fclose(local_fp) ;

}

使用“mmap”可能会更快。但是,问题要求进行行处理,并且考虑到这不是现实生活中的问题,不确定是否值得付出额外的努力。

关于c - C 中的多线程读取和打印非常大的文件,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/59014248/

28 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com