gpt4 book ai didi

超大文件的 stxxl 排序(ubuntu)

转载 作者:行者123 更新时间:2023-12-01 23:48:21 25 4
gpt4 key购买 nike

我正在尝试对包含大约十亿条记录(每条记录包含四个整数)的大文件进行排序。文件的大小将超过 50GB。

我正在用 4 亿条记录(大约 6 GB 文件)测试我的代码。我的磁盘配置如下所示:

disk=/var/tmp/stxxl,50G,syscall delete

我的机器有 16 GB RAM 和 8 个物理处理器(Intel i7),stxxl版本 1.4.1。如果我用 2 亿条记录运行代码,大约需要 5 分钟。但是当我运行包含 4 亿条记录的代码时,它似乎磁盘空间不足。我的问题是:

1) 为什么我的代码甚至用完了磁盘空间来排序一个 6 GB 的文件?请查看它(仅附上几行重要内容)。

2) 我的 PC 整理 2 亿条记录需要 5 分钟的合理时间吗?如果是真的,不知道stxxl能不能在白天对50亿条记录进行排序。

3) 你认为 stxxl 是解决这类问题的好选择吗?我也可以访问安装了 mpi 的集群。

代码(灵感来自 examples/algo/sort_file.cpp 和 examples/algo/phonebills.cpp):

size_t memory_to_use = (1*1024) * 1024 * 1024ul;
typedef stxxl::vector<my_type, 1, stxxl::lru_pager<8>, block_size> vector_type;

std::copy(std::istream_iterator<my_type>(in),
std::istream_iterator<my_type>(),
std::back_inserter(v));

stxxl::sort(v.begin(), v.end(), Cmp(), memory_to_use);

每个向量元素或记录都是一个包含四个无符号数的元组:

struct my_type
{
typedef unsigned short key_type;
typedef std::tuple<key_type, key_type, key_type, key_type> key4tuple;
...
}

最佳答案

如果您只想排序,请考虑使用 stxxl::sorter。

它应该只需要预期的磁盘空间量、数据的总大小,并且应该以至少 ~100 MB/s 的速度进行排序,具体取决于您的磁盘以及相对于数据类型的比较复杂程度尺寸。

stxxl::sort() 函数做更多的工作并且需要额外的空间,因为它写入了临时的额外数据。

另请参阅我的教程视频 :)。

关于超大文件的 stxxl 排序(ubuntu),我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/27935683/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com