- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我有一个非常大的文本文件(即今天的 40 GB),我想过滤出唯一的行而不对文件进行排序。
文件有 unix 行结尾,所有内容匹配 [[:print:]]
。我尝试了以下 awk 脚本来仅显示唯一的行:
awk 'a[$0] {next} 1' stupid.txt > less_stupid.txt
我的想法是通过引用其元素来填充一个数组,使用文件的内容作为键,然后跳过数组中已有的行。但这失败有两个原因——首先,因为它莫名其妙地不起作用(即使在小测试文件上),其次,因为我知道我的系统将在整组唯一行加载到内存之前耗尽内存通过 awk。
经过搜索,我找到了this answer推荐:
awk '!x[$0]++'
虽然这适用于小文件,但它也会在读取整个文件之前耗尽内存。
什么是更好(即有效)的解决方案?我对几乎所有事情都持开放态度,尽管我更偏向于使用我知道的语言(bash 和 awk,因此是标签)的解决方案。在尝试将问题可视化时,我想出的最好办法是存储一组行校验和或 MD5,而不是行本身,但这只会节省一点空间并冒着校验和冲突的风险。
任何提示都将非常受欢迎。告诉我这是不可能的也很受欢迎,这样我就不再试图弄清楚了。 :-P
最佳答案
awk '!x[$0]++'
技巧是最优雅的解决方案之一,无需排序即可删除重复文件或流。但是,它在内存方面效率低下并且不适合大文件,因为它将所有唯一行保存到内存中。
但是,更有效的实现方式是在数组中保存行的恒定长度 散列 表示而不是整行。您可以使用 Perl
在一行中实现这一点,它与 awk
脚本非常相似。
perl -ne 'use Digest::MD5 qw(md5_base64); print unless $seen{md5_base64($_)}++' huge.txt
这里我使用了 md5_base64
而不是 md5_hex
因为 base64 编码需要 22 个字节,而十六进制表示为 32。
但是,由于 hashes
的 Perl 实现仍然需要每个键大约 120 字节,您可能会很快用完您的大文件的内存。
这种情况下的解决方案是分块处理文件,手动拆分或使用 GNU Parallel使用 --pipe、--keep-order 和 --block 选项(正如您提到的那样,利用重复行相距不远的事实)。以下是如何使用 parallel
实现它:
cat huge.txt | pv |
parallel --pipe --keep-order --block 100M -j4 -q \
perl -ne 'use Digest::MD5 qw(md5_base64); print unless $seen{md5_base64($_)}++' > uniq.txt
--block 100M
选项告诉 parallel 以 100MB 的 block 来处理输入。 -j4
表示并行启动 4 个进程。这里的一个重要论点是 --keep-order
因为您希望唯一的行输出保持相同的顺序。我在管道中包含了 pv
,以便在执行长时间运行的进程时获得一些不错的统计数据。
在我对随机数据 1GB 文件执行的基准测试中,我使用上述设置达到了 130MB/秒的吞吐量,这意味着您可以在 4 分钟内删除 40GB 文件的重复数据(如果您有足够快的硬盘能够以这种速度写作)。
其他选项包括:
这是使用 Bloom::Faster 的示例Perl 模块:
perl -e 'use Bloom::Faster; my $f = new Bloom::Faster({n => 100000000, e => 0.00001}); while(<>) { print unless $f->add($_); }' huge.txt > uniq.txt
您可以从cran
安装Bloom::Faster
(sudo cran
然后安装“Bloom::Faster”
)
解释:
e
和可用桶的数量 n
。每个桶所需的内存约为 2.5 字节。如果您的文件有 1 亿行,那么您将需要 1 亿个桶和大约 260MB 的内存。$f->add($_)
函数将一行的散列添加到过滤器中,如果键(即此处的行)是,则返回 true
一个副本。dd if=huge.txt bs=400M count=1 | 解析文件的一小部分 | awk '!a[$0]++' | wc -l
(400MB) 并将该数字乘以 100 (40GB)。然后将 n
选项设置得更高一些以确保安全。 在我的基准测试中,这种方法达到了 6MB/s 的处理速率。您可以将此方法与上面的 GNU parallel
建议结合使用,以利用多个内核并实现更高的吞吐量。
关于bash - `uniq` 没有对巨大的文本文件进行排序?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/30906191/
我希望 uniq 命令的输出以逗号分隔,而不是: 30 hello 31 world 36 hey_there 142 i_am_bigest 我去拿: 30,h
我的数据为/tmp/1 9367543 9105616 9108177 8948074 8860323 9170406 9105616 我跑了,我什么也没得到 cat /tmp/1 | uniq -d
请看下面的内容我想要的只是从文件中获取 node_name 字符串并执行 uniq 以获取 uniq 字符串(如果它们相等) 但在下面的示例中,我有两条相等的线 (node_name moon1) 但
我知道它是排序的,并且输出用于找出文件中的唯一语句。我也觉得 uniq -u 应该打印文件中的每个唯一语句。 uniq -u data.txt 此语句的输出是: MsxcvOe3PGrt78wpZG2
所以我有一个非常简单的模型,叫做 Movies。我正在尝试添加一个类方法,该方法返回分配给数据库中电影的评级的整洁列表。看来我想调用 Movie.uniq.pluck(:rating) 所以我添加了这
我知道 & 会禁用原型(prototype),但括号也不会这样做。这两个代码块有什么不同,顶部不能像底部一样运行是否有原因, use List::Util; use constant FOO => (
我有一个名为“test.txt”的文件,如下所示: 10 10 10 8 10 9 10 10 9 10 8 由于某种原因,当我运行 uniq test.txt 时,我得到了以下输出: 10 8 10
//for a sorted array var iterator = function(value) { return value === 1; }; var numbers = [1, 2, 2,
我有三个表:Show、Episode 和 Character。每个节目都有_许多集和角色。 class Show 这几乎可行,但是某些节目有多个字符,因此在打印列表中,某些节目会多次列出。
我有很多 *.dat 文件。什么 bash 脚本可以删除每行中重复的相邻行? 最佳答案 你是说这样? #!/bin/bash for f in "$@" do cp "$f" /tmp/tmp.
我有一个包含以下示例数据的输入文件。 kernel_version 主机名 2.6.32-220.el6.x86_64 www01.dc1.domain.com 2.6.32-220.el6.x86_
1.gui Qxx 16 2.gu Qxy 23 3.guT QWS 18 4.gui Qxr 21 我想根据第 3 列中的值对文件进行排序,所以我使用: s
我有一个非常大的文本文件(即今天的 40 GB),我想过滤出唯一的行而不对文件进行排序。 文件有 unix 行结尾,所有内容匹配 [[:print:]]。我尝试了以下 awk 脚本来仅显示唯一的行:
尝试从 sam 文件中获取某个字段,对其进行排序,然后查找文件中唯一数字的数量。我一直在努力: cut -f 2 practice.sam > field2.txt | sort -o field2.
有一个包含 2 列的文件,仅需要在第 1 列上使用 uniq 并打印结果中的列以及出现次数(与-c)。 示例: 1 a1 a2 a3 c4 d2 1 a1 2 a1 3 c1 4 d 最佳答案 ech
这个问题在这里已经有了答案: Why does "uniq" count identical words as different? (4 个答案) 关闭 5 年前。 我在使用 unix uniq
我正在尝试学习如何使用终端命令 uniq。我正在使用 mac、bash shell (unix)。 这是我的文本文件“terminal.txt”: this is a line this is a
我有一个文件,我试图根据第四列进行排序,并根据该列删除重复的行。使用 sort -uk4,4 后,我的文件如下所示: chr1 76190472 76190502 NM_000016
我有这样的字符串: import a.b.c.d.f.Class1 import a.b.g.d.f.Class2 import a.b.h.d.f.Class3 import z.y.x.d.f.C
我有如下数据: 1493992429103289,207.55,207.5 1493992429103559,207.55,207.5 1493992429104353,207.55,207.5 14
我是一名优秀的程序员,十分优秀!