- c - 在位数组中找到第一个零
- linux - Unix 显示有关匹配两种模式之一的文件的信息
- 正则表达式替换多个文件
- linux - 隐藏来自 xtrace 的命令
我使用的是 Delphi 2009。我有一个非常简单的数据结构,有 2 个字段:
困难在于我可能有数百万条这样的记录,因此它们的总大小可能多达或超过 10 GB。显然,我正在寻找磁盘上的解决方案而不是内存中的解决方案。
我的程序需要根据关键字段随机检索这些记录。这就是需要尽可能高效的部分。
我应该为这样一个简单的结构使用数据库吗?如果是的话,哪个数据库最适合处理这个问题并且最容易实现?
或者,是否有一种简单的磁盘数据结构不需要成熟的数据库也能正常工作?
好吧,我只需要一个答案就可以把我拉回现实。我一直在寻找比简单数据库更简单的东西。但是当没有答案是使用数据库时,我意识到我已经用我自己对另一个问题的回答回答了这个问题:Best database for small applications and tools .
我的回答是DISQLite3对于the reasons I specified there .这就是我可能会在实现中使用的内容。
还有一些可能的好答案。那太棒了。我将能够尝试几种不同的方法,看看哪种方法效果最好。
更多的思考,我不得不将接受的答案更改为 GpStructuredStorage 解决方案。
在我的例子中,总计几千兆字节的一百万条记录会给数据库结构带来压力。具体来说,在大多数数据库中用于存储索引的 B* 树速度很快,但对于某些操作(例如重新索引一百万个值)会变慢。
对于索引,您会发现唯一比 B* 更快的是哈希表。而这正是 gabr 建议的 GpStructuredStorage 解决方案所提供的内容。我认为他将散列值分段以提供 4 级目录结构的方式非常优雅。
我可以使用哈希解决方案的关键原因是我只需要通过 key 进行随机访问。我不需要按键排序。如果需要排序,那么哈希表的速度优势就会失去,数据库系统将成为一个无需大脑的赢家。
当我着手实现此技术时,我应该将此技术与数据库进行比较。也许我会与 Firebird 和 SQLite 进行比较,它们都是值得的对手。
还有一个跟进:
我刚刚发现 Synopse Big Table通过 A. Bouchez它专为速度而设计,几乎完全符合我的问题的规范。当我在几个月后实现时,我会首先尝试它,并会在此处报告我的结果。
很久以后的跟进(2015 年 7 月)
我从未尝试过 Synopse Big Table。到目前为止,我一直坚持使用我的 B* 树。但现在我已经升级到 Delphi XE8,并计划使用 FireDAC 和 SQLite 来使用数据库解决方案。
最佳答案
对于超过 10GB 的数据,数据库正是您所需要的。它将处理用于快速定位数据(您的随机检索)的索引、添加、修改和删除数据的功能以及实际存储,如果您愿意,还可以处理更多内容。
这里有许多帖子与哪些数据库可用于 Delphi 相关,包括内置和 FOS 数据库,如 Firebird .
关于database - 我应该如何在 Delphi 中实现一个巨大但简单的索引 StringList?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/1799634/
我通过在共享首选项中使用 GSON 将其转换为 json 来存储我的复杂对象。但是在检索它时,无法获得预期的字符串。 代码 这里 holderListCustomizationMap 是对象的复杂映射
因此,我正在尝试对大于可用RAM的gz压缩文件执行某种面向行的操作,因此排除了将其首先读取为字符串的情况。问题是,如何在rust(缺少gunzip file.gz|./my-rust-program)
我试图更好地理解为什么具有潜在大精度的大数字处理不一致,特别是在 JavaScript 及其本地化工具(例如 ECMA-402/Intl)中。我假设这与 float 的使用有关,但我想了解限制在哪里和
我们有一个 5GB 的 csv 文件,这是我们业务的主列表。 有多个类别,每个类别包含数千条记录。我们的目标是将每个类别导出为其自己的 csv 文件。 我们如何运行查询并导出数据? 运行 OSX。有没
基于上一个问题 ( see here ),我试图通过 xmlEventParse 读取许多大型 xml 文件,同时保存节点变化数据。使用此示例 xml:https://www.nlm.nih.gov/
我正在开发一个系统,它加载一个巨大的 CSV 文件(超过 100 万行)并保存到数据库中。每行也有超过一千个字段。 CSV 文件被视为一个批处理,每一行都被视为其子对象。在添加对象的过程中,每个对象都
借助node-google模块 我编写了一个简单的 Node 模块来为我的网络应用程序启用“文本网络搜索”功能,并在我的一个 View 中显示结果。 由于在来自同一 IP 的少量查询后 Google
我有相当大的 4D 阵列 [20x20x40x15000],我使用 h5py 将其作为 HDF5 文件保存到磁盘.现在的问题是我想计算整个数组的平均值,即使用: numpy.average(HDF5_
我在遗留代码库中连接巨大的 CString 时遇到问题。 CStrings 可以包含 base64 编码的文件,因此可能很大。在某些时候,这些 CString 会像这样连接起来: result +=
我正在尝试让我的服务器提供来自另一台服务器的巨大文件。但是,为了保护我的凭据免受该远程服务器的攻击,我不能简单地将请求者重定向到文件 url;另一方面,虽然使用 StreamingHttpRespon
感谢对此的任何见解,我有 2 个问题: 1) 弄清楚为什么我的本地数据库 oplog 庞大且不断增长 2) 安全删除(或重置)我的 local.oplog 以释放 18 GB 的浪费空间 场景:我一直
我的预期任务:获取大量数据(1 GB 及更多大小)json 字符串,操作(进行一些格式化、解析 json、重组 json 数据)并写入新格式化的 json 字符串作为响应。处理这种情况的更好方法是什么
我做了一个小的 Angular 4 应用程序,但我不知道如何应用 tree shaking 和 aot 编译。我运行的命令如下: ng build --prod --aot 但我得到的结果仍然很大,供
我是一名优秀的程序员,十分优秀!