gpt4 book ai didi

perl - 从 fifo 读取时重叠输出 : how to fix/avoid this?

转载 作者:行者123 更新时间:2023-12-02 08:33:24 25 4
gpt4 key购买 nike

我正在尝试聚合来自 2 个文件的数据,因此我决定通过单独的写入器进程将数据发送到命名的 fifo,并启动单独的读取器进程来读取和处理聚合数据。所有读/写都发生在 ramdisk (/dev/shm) 上,该虚拟磁盘大小约为 100 GB。

这个工作文件,我确保写入 fifo 的每个数据行都小于 512 字节,因此管道可以保留其原子行为。

但是在尝试多次运行之后,我发现读取器进程正在接收重叠的输出,当我尝试从每个进程传输超过 1000 万行时,这种情况就会开始发生。我的每条数据线都以新行终止。

我在“+< fifo”模式下打开fifo进行读取,在“>> fifo”模式下进行写入。这里不使用系统调用,只是使用正常打开来获取文件句柄并尝试逐行处理数据。

我怎样才能开始调查这个问题。有什么想法吗?

非常感谢。

更新截至 2019 年 4 月 29 日:

请注意,我的循环现在使用系统调用。以前我没有使用它们,但最终决定使用它们。

同样的事情也可以通过让 2 个进程写入一个文件来实现,但需要小心,因为这仅适用于 POSIX 兼容的文件系统,或者如果没有,则可以保留日志文件(其中多个进程将执行写入)在 RAMDISK 中,因为它也可以工作。 NFS 驱动器超出了范围,因为它不符合 POSIX 标准,并且此技术对其不起作用。

因此,如果我们谈论 FIFO 与文本文件 - 多个进程读取/写入文件比多个进程读取/写入 FIFO 更快。

对于即将到来的读者,这是我的作者和读者流程代码。如何设计代码来合并这些子例程取决于您。有很多方法可以做到这一点。

希望它有用。

作者流程

  write_log => sub {
my ($filehandle, $log_message) = @_;
select $filehandle ; $|++;
syswrite ($filehandle, $log_message, length($log_message))
or die "write_log: syswrite fail!\n";
},

读者进程:

  read_log => sub
{
# In my endless reading loop,
# if I detect keyword END 2 times (as
# i have 2 processes), I exit the reading loop
# and do further operations.
#
my ($end_check_value) = @_;

sysopen (FH,$logfile, O_CREAT|O_RDONLY)
or die "($$) read_log: Failed to sysopen\n";

my ($h, $end) = (undef,0);

select FH ; $|++ ;

print STDOUT get_ts().'|'."($$) read_log: now tailing logfile with check count $end_check_value\n";

for (;;)
{
while (my $line = <FH>)
{
chomp $line;
$end++ if $line =~ m/END/g;
last if $end == $end_check_value;
my $key = (split(/\s/,$line))[0];
$h->{$key}++;
}

sleep(1) ; seek (FH,0,1);

# break out of for loop if we
# have collected the 'END' tags
# from all worker processes
if ($end == $end_check_value)
{
print STDOUT get_ts().'|'."($$) read_log: breaking for loop ",
"with end_check: $end_check_value\n";
last;
}
} close (FH);
},

性能统计:

以下是多个进程写入 RAMDISK 上的单个文件的性能统计数据。平均而言,写入 150,000,000 行(1.5 亿)然后读入哈希需要大约 10 分钟正负 20 秒。

test string is 238 bytes long
20190429-12:34:50.637|(11139) PARENT: each child will write (75000000) to (/dev/shm/multi_proc_test_logfile.log)
20190429-12:34:54.399|(11139) trunc_log_file: truncated (/dev/shm/multi_proc_test_logfile.log)
20190429-12:34:54.399|(11149) process no. (2) launched!
20190429-12:34:54.399|(11150) process no. (1) launched!
20190429-12:34:55.400|(11139) read_log: now tailing logfile with check count 2
20190429-12:44:21.565|(11150) process exiting with status code 0
20190429-12:44:34.164|(11149) process exiting with status code 0
20190429-12:45:03.956|(11139) read_log: breaking for loop with end_check: 2
20190429-12:45:03.957|(11139) read_log: Collected counts:
(11139) (11149):75000000
(11139) (11150):75000000
---------------
(11139) Finished!

real **10m13.466s**
user 9m31.627s
sys 0m39.650s

以下是 FIFO 的性能统计数据,其中多个进程分别向 FIFO 写入 25,000,000 行,读取器进程将它们读回到哈希中。平均需要大约25-30分钟。它比写入文件的进程慢。

test string is 141 bytes long
20190426-10:25:13.455|28342|2-test-fifo.pl: Starting..
20190426-10:25:13.456|28345|CHILD starting (read_and_hash)
20190426-10:25:13.456|28345|READ_AND_HASH now hashing files
20190426-10:25:14.458|28346|CHILD starting (s1_data_gather)
20190426-10:25:14.458|28346|Working on sit1 data..
20190426-10:25:14.458|28347|CHILD starting (s2_data_gather)
20190426-10:25:14.458|28347|Working on sit2 data..
20190426-10:48:48.454|28346|Finished working on S1 data..
20190426-10:48:48.457|28342|Reaped 28346
20190426-10:48:48.462|28345|read LAST line from S2 data
20190426-10:48:52.657|28347|Finished working on s2 data..
20190426-10:48:52.660|28342|Reaped 28347
20190426-10:48:52.669|28345|read LAST line from S2 data
20190426-10:48:53.130|28345|READ_AND_HASH finished hashing files
(read_n_hash): finished hashing. keys count
s1 = 25000000
s2 = 25000000
20190426-10:48:53.130|28345|starting comparison. doing source to target
20190426-10:49:49.566|28345|finished comparing source to target. now comparing target to source
20190426-10:50:45.578|28345|comparing target to source ends. finished
20190426-10:51:57.220|28342|Reaped 28345
20190426-10:51:57.220|28342|2-test-fifo.pl: Ending..

最佳答案

您可能必须为正在写入的文件打开自动刷新。如果您使用 open() 函数而不是通过 IO::File 之类的 OO 接口(interface)打开文件,那么在成功打开文件(例如 $fifo)后,您需要像这样的代码。

select $fifo;
$| = 1;

请注意,select() 选择用于打印的输出文件句柄,诸如此类不指定特定的文件句柄。如果您想恢复为目标 STDOUT,请在上述之后选择 STDOUT,或者迂腐一点:

my $oldfh = select $fifo;
$| = 1;
select $oldfh;

我认为文件模式(“+<”等)与此无关,因为“破坏”和“追加”等概念不适用于 FIFO。您可能也可以使用简单的“>”和“<”。

关于perl - 从 fifo 读取时重叠输出 : how to fix/avoid this?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/55851122/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com