gpt4 book ai didi

linux - 如何加速 grep/awk 命令?

转载 作者:塔克拉玛干 更新时间:2023-11-03 01:50:15 27 4
gpt4 key购买 nike

我将处理文本文件 (>300 GB) 并将其拆分为小文本文件 (~1 GB)。我想加快 grep/awk 命令的速度。

我需要对 b 列有值的行进行 grep,这是我的方法:

# method 1:
awk -F',' '$2 ~ /a/ { print }' input

# method 2:
grep -e ".a" < inpuy

这两种方式每个文件都花费 1 分钟。那么我怎样才能加快这个操作呢?


输入文件示例:

a,b,c,d
1,4a337485,2,54
4,2a4645647,4,56
6,5a3489556,3,22
9,,3,12
10,0,34,45
24,4a83944,3,22
45,,435,34

预期输出文件:

a,b,c,d
1,4a337485,2,54
4,2a4645647,4,56
6,5a3489556,3,22
24,4a83944,3,22

最佳答案

How to speed up grep/awk command?

您确定 grepawk 是造成您感知缓慢的罪魁祸首吗?你知道cut(1)吗或 sed(1) ?您是否对运行时间进行了基准测试wc(1)在你的数据上?可能文本 I/O 花费了很多时间。

请进行基准测试几次,并使用time(1)对您的程序进行基准测试。

我有一台高端 Debian 台式机(配备 AMD 2970WX、64Gb RAM、1TB SSD 系统磁盘、多 TB 7200RPM SATA 数据磁盘)并且只是在 25GB 文件上运行 wc(一些*.tar.xz 存档)在硬盘上需要 10 多分钟(用 time 测量),而 wc 正在做一些 < em>非常简单的文本处理,按顺序读取该文件,因此运行速度应该比grep(但令我惊讶的是,事实并非如此!)或 awk相同 数据上:

wc /big/basile/backup.tar.xz  640.14s user 4.58s system 99% cpu 10:49.92 total

和(在同一个文件上使用grep来计算a的出现次数)

grep -c a /big/basile/backup.tar.xz  38.30s user 7.60s system 33% cpu 2:17.06 total

您问题的一般答案:

只需巧妙地(使用高效的O(log n) time complexity data structures : red-black treeshash tables , 等等 ...) C 或 C++ 或 Ocaml 或大多数其他好的语言和实现中的等效程序。或者购买更多 RAM 来增加您的 page cache .或者买一个SSD保存您的数据。并且多次重复您的基准测试(因为页面缓存)。

针对你的问题的建议:使用关系型数据库

很可能使用 300Gb 的纯文本文件不是最好的方法。 拥有巨大的文本文件通常是错误的,而且一旦您需要多次处理相同的数据,就很可能是错误的。你会更好pre-process不知何故..

如果您多次对相同数据文件重复相同 grep 搜索或awk 执行, 考虑改用 sqlite (参见 this 答案)甚至一些other真实relational database (例如使用 PostGreSQL 或其他一些好的 RDBMS)来存储然后处理您的原始数据。

所以一种可能的方法(如果你有足够的磁盘空间)可能是编写一些程序(用 C、Python、Ocaml 等...),由你的原始数据提供,并填充一些 sqlite 数据库。一定要有巧database indexes并花时间设计足够好的database schema ,意识到database normalization .

关于linux - 如何加速 grep/awk 命令?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/56334265/

27 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com