- android - 多次调用 OnPrimaryClipChangedListener
- android - 无法更新 RecyclerView 中的 TextView 字段
- android.database.CursorIndexOutOfBoundsException : Index 0 requested, 光标大小为 0
- android - 使用 AppCompat 时,我们是否需要明确指定其 UI 组件(Spinner、EditText)颜色
我是一名计算机科学学生(因此是编程新手),我正在尝试在 Python 中实现外部合并排序算法,例如 this one 。要排序的数据是一个大型 CSV 文件,大约有 9,000,000 行,如下所示:
1743-11-01,6.068,1.736,StadtA,Denmark,57.05N,10.33E
1744-06-01,5.787,3.623,StadtB,Belgien,47.05N,10.33E
到目前为止,我有这个函数将 csv 文件分成多个预先排序的 block :
def splitFiles(self, largeFileName, smallFileSize):
largeFileHandler = csv.reader(open(largeFileName), delimiter=',')
tempBuffer = []
size = 0
for row in largeFileHandler:
tempBuffer.append(row)
size += 1
if (size % smallFileSize == 0):
tempBuffer.sort(key=lambda x: (x[5], -float(x[1]), x[3]))
tempFile = tempfile.NamedTemporaryFile(dir=self.cwd + '/temp', delete=False, mode="wb+")
writer = csv.writer(tempFile)
writer.writerows(tempBuffer)
tempFile.seek(0)
sortedTempFileHandlerList.append(tempFile)
tempBuffer = []
这意味着 block 按第五个元素降序排序。如果该值相等,则按第一个元素递增排序,如果也相等,则按第三个元素排序。
在那之前一切正常。但是将这些 block 合并成一个(最终)大文件需要很长时间。
def merge(self):
stack_tops = []
sink = csv.writer(open("outputfile", "w+"))
for f in sortedTempFileHandlerList:
stack_tops.append(next(csv.reader(f)))
while stack_tops:
c = min(stack_tops, key=lambda x: (x[5], -float(x[1]), x[3]))
sink.writerow(c)
i = stack_tops.index(c)
try:
t = next(csv.reader(sortedTempFileHandlerList[i]))
stack_tops[i] = t
except StopIteration:
del stack_tops[i]
self.sortedTempFileHandlerList[i].close()
del self.sortedTempFileHandlerList[i]
我的问题是,如何才能使第二部分运行得更快?提前致谢!
最佳答案
如果您有旋转的硬盘驱动器,则问题的原因可能是过多的磁盘寻道。如果您并行读取数十个文件,则磁盘驱动器会放弃,每次读取都会持续到磁盘旋转为止。转速为 6000 rpm 时,完整旋转时间为 0-0.01 秒,平均为 0.005 秒。当您的文件之间有许多兆字节的数据时,每秒读取次数总计为 200 次。
解决方案是一次只合并几个文件。
我过去个人编写此代码的方式是保留一堆对象,其中包括{file: ___, size: ___}
。然后你的逻辑如下所示:
while more to read:
read a chunk
write a sorted chunk
add file info to stack
while n < len(stack) and sum of sizes of top n-1 elements exceeds the nth:
pop top n objects off of stack
merge them
push merged element onto stack
merge stack to get answer
您必须使用它来确定要合并多少个。但我成功地使用这种策略来处理具有数十亿行的数据集,并且表现良好。我想我将 n
设置为 4。
(在我的现实生活示例中,情况很复杂,由于磁盘限制,我必须压缩所有中间文件。我还在合并和聚合结果时进行操作。我更愿意在数据库中执行此操作,但数据库没有空间了。那是一个有趣的项目...)
<小时/>更多细节。
首先,由于这是 Python,我建议您将 splitFiles
制作为迭代器。就像这个伪代码:
def splitFiles (inputFile):
open inputFile
create in memory data
while more to read:
add to data
if data is full:
write sorted temp file
yield (fileSize, tempFile)
if data:
write sorted temp file
yield (fileSize, tempFile)
那些yield
使其成为一个迭代器。现在你的主要逻辑是这样的:
stack = []
for chunk in splitFile(dataFile):
stack.append(chunk)
while 3 < len(stack) and stack[-4][0] < sum((stack[-i][0] for i in [1, 2, 3])):
chunks = []
for _ in range(4):
chunks.append(stack.pop())
stack.append(mergeChunks(chunks))
# Now the final merge
while 1 < len(stack):
chunks = []
for _ in range(4):
if len(stack):
chunks.append(stack.pop())
stack.append(mergeChunks(chunks))
return stack[0][1]
在您提供 8 个 3MB block 的示例中,您的堆栈将像这样进行:
[]
[(3_000_000, tempFile1)]
[(3_000_000, tempFile1), (3_000_000, tempFile2)]
[(3_000_000, tempFile1), (3_000_000, tempFile2), (3_000_000, tempFile3)]
[(3_000_000, tempFile1), (3_000_000, tempFile2), (3_000_000, tempFile3), (3_000_000, tempFile4)]
# First merge!
[(12_000_000_000, tempFile5)]
[(12_000_000_000, tempFile5), (3_000_000, tempFile6)]
[(12_000_000_000, tempFile5), (3_000_000, tempFile6), (3_000_000, tempFile7)]
[(12_000_000_000, tempFile5), (3_000_000, tempFile6), (3_000_000, tempFile7), (3_000_000, tempFile8)]
[(12_000_000_000, tempFile5), (3_000_000, tempFile6), (3_000_000, tempFile7), (3_000_000, tempFile8), (3_000_000, tempFile9)]
# Second merge!
[(12_000_000_000, tempFile5), (12_000_000_000, tempFile10)]
# End of input, final merge
[(24_000_000_000, tempFile11)]
最后一个文件就是你的结果。
关于Python外部合并排序运行缓慢,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/58980146/
我正在尝试对每个条目有多个值的关联数组进行排序。 例如 [0] => stdClass Object ( [type] => node [sid] => 158 [score] => 0.059600
我在 mysql 中有“日期”列以这种格式保存日期 2014 年 9 月 17 日(日-月-年) 我需要对它们进行升序排序,所以我使用了这个命令: SELECT * FROM table ORDER
我目前正在将 MySQL 存储过程重写为 MS SQL 存储过程,但遇到了问题。 在 MySQL 存储过程中,有一个游标,它根据最近的日期 (effdate) 选择一个值并将其放入变量 (thestt
我想要 gwt r.QuestionId- 排序。但是我得到未排序的 QuestionId 尽管我提到了 QuestionId ASC 的顺序。 SELECT r.QuestionId,
我有一个关于在 scandir 函数中排序的基本问题。到目前为止,我阅读了 POSIX readdir 的手册页,但没有找到有关订购保证的具体信息。 但是当我遍历大目录(无法更改,只读)时,我在多个系
基本上我必须从 SQL 数据库中构建项目列表,但是用户可以选择对 7 个过滤器的任意组合进行过滤,也可以选择要排序的列以及按方向排序。 正如您可以想象的那样,这会以大量不同的组合进行编码,并且数据集非
我有两张 table 。想象第一个是一个目录,包含很多文件(第二个表)。 第二个表(文件)包含修改日期。 现在,我想选择所有目录并按修改日期 ASC 对它们进行排序(因此,最新的修改最上面)。我不想显
我想先根据用户的状态然后根据用户名来排序我的 sql 请求。该状态由 user_type 列设置: 1=活跃,2=不活跃,3=创始人。 我会使用此请求来执行此操作,但它不起作用,因为我想在“活跃”成员
在 C++ 中,我必须实现一个“类似 Excel/Access”(引用)的查询生成器,以允许对数据集进行自定义排序。如果您在 Excel 中使用查询构建器或 SQL 中的“ORDER BY a, b,
我面临这样的挑战: 检索按字段 A 排序的文档 如果字段 B 存在/不为空 . 否则 按字段排序 C. 在 SQL 世界中,我会做两个查询并创建一个 UNION SELECT,但我不知道如何从 Mon
我想对源列表执行以下操作: map 列表 排序 折叠 排序 展开 列表 其中一些方法(例如map和toList)是可链接的,因为它们返回非空对象。但是,sort 方法返回 void,因为它对 List
我制作了一个用于分析 Windows 日志消息编号的脚本。 uniq -c 数字的输出很难预测,因为根据数字的大小会有不同的空白。此时,我手动删除了空白。 这是对消息进行排序和计数的命令: cat n
我有以下词典: mydict1 = {1: 11, 2: 4, 5: 1, 6: 1} mydict2 = {1: 1, 5: 1} 对于它们中的每一个,我想首先按值(降序)排序,然后按键(升序)排序
我刚刚开始使用泛型,目前在对多个字段进行排序时遇到问题。 案例: 我有一个 PeopleList 作为 TObjectList我希望能够通过一次选择一个排序字段,但尽可能保留以前的排序来制作类似 Ex
有没有办法在 sql 中组合 ORDER BY 和 IS NULL 以便我可以在列不为空时按列排序,但如果它为null,按另一列排序? 最佳答案 类似于: ORDER BY CASE WHEN
我有一个包含 2 列“id”和“name”的表。 id 是常规的自动增量索引,name 只是 varchar。 id name 1 john 2 mary 3 pop 4 mary 5 j
场景 网站页面有一个带有分页、过滤、排序功能的表格 View 。 表中的数据是从REST API服务器获取的,数据包含数百万条记录。 数据库 REST API 服务器 Web 服务器 浏览器 问
假设我有一本字典,其中的键(单词)和值(分数)如下: GOD 8 DONG 16 DOG 8 XI 21 我想创建一个字典键(单词)的 NSArray,首先按分数排序,然后按字
如何在 sphinx 上通过 sql 命令选择前 20 行按标题 WEIGHT 排序,接下来 20 行按标题 ASC 排序(总共 40 个结果),但不要给出重复的标题输出。 我尝试了这个 sql 命令
我有一个奇怪的问题,当从 SQLite 数据库中选择信息并根据日期排序时,返回的结果无效。 我的SQL语句是这样的: Select pk from usersDates order by dateti
我是一名优秀的程序员,十分优秀!