- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我有一个格式如下的数据库:
"filename": {
"url": "base64 of Zlib compressed URL to decrease size of file",
"date": "Date added to database",
"size": "Size of file in URL(not always present)"
}
"dirname": {
"url": "base64 of Zlib compressed URL to decrease size of file",
"date": "Date added to database",
[...files and directories in this directory...]
}
Zlib
压缩进一步减少 RAM 使用量。格式是这样的:
[["file or directory name", "zlib compressed url", "date", "size if exists"], ...]
results = manager.list() # python multiprocessing shared list
#in a loop that splices into n pieces(20 currently):
p = multiprocessing.Process(target=self.slice_search, args=(results, name, iter(self.minimal_data[start:i]), function_to_use, min_score,))
processes.append(p)
p.start()
[["score", "file or directory name", "zlib compressed url", "date", "size if exists"], ...]
最佳答案
对于这个答案,我将处理以下数据:
import string
import random
random.seed(18)
str_options = string.ascii_uppercase + string.ascii_lowercase + string.digits + ' '
query = \'\'.join(random.choice(str_options) for _ in range(30))
choices = [\'\'.join(random.choice(str_options) for _ in range(30)) for s in range(6500000)]
我暂时不会使用任何多处理,但这也可以以并行方式完成。
from fuzzywuzzy import fuzz
results = []
for choice in choices:
if fuzz.QRatio(query, choice) >= 80:
results.append(choice)
正如您提到的,fuzzywuzzy 已经使用 python-Levenshtein 进行了非常优化的 levenshtein 计算。但是在计算fuzzywuzzy 之前检查两个字符串是否为空或相等,以便它可以提前返回而无需计算levenshtein 距离。虽然这听起来是个好主意,但实际上并非如此,因为检查两个字符串是否相同需要遍历整个字符串来检查它。在 levenshtein 计算之前删除公共(public)前缀和后缀要好得多(加速它,例如对于相等的字符串,它是时间线性的)。当字符串完全相同时,这会慢一些,但在处理模糊数据时,这种情况不太可能发生。
55 seconds
中运行。在我的机器上
from rapidfuzz import fuzz
results = []
for choice in choices:
if fuzz.QRatio(query, choice) >= 80:
results.append(choice)
这只需要大约
18 seconds
在我的机器上,所以它已经是大约 3 倍的改进。另一个问题是使用 fuzz.QRatio 预处理两个字符串以将它们小写并删除一些不需要的字符。虽然这通常是有道理的,但这意味着这里的查询得到了 650 万次而不是一次的预处理。
from rapidfuzz import fuzz, utils
results = []
processed_query = utils.default_process(query)
for choice in choices:
processed_choice = utils.default_process(choice)
if fuzz.ratio(processed_query, processed_choice, score_cutoff=80):
results.append(choice)
需要
14 seconds
在我的机器上。这表明您可能还希望以预处理的方式存储文件名,因此您在搜索时也不必对它们进行预处理(这将使其降至
11 seconds
左右)。此时主要的时间要求是计算 levenshtein 距离,这是一个 O(m*n) 操作。因此,最好减少必须执行此操作的结果数量。 RapidFuzz 默认情况下已经使用的一种快速方法是比较两个字符串的长度,因为当它们的长度差异很大并且可以在恒定时间内计算时,它们无法达到所需的比率,因为无论如何长度都是已知的.但是,在我的测试用例中,这永远不会适用,因为所有字符串的长度都是 30。当需要更快的解决方案时,您仍然可以在多个内核上进行计算。您可以使用 C++ 版本
RapidFuzz-cpp以及(它还没有 python 版本的所有功能,但也足以实现这一点)
using rapidfuzz::string_utils::default_process;
using rapidfuzz::fuzz::CachedRatio;
std::string query("example");
std::vector<std::string> choices{"example", "example2", "example3"};
std::string processed_query = default_process(query);
std::vector<std::string> results;
CachedRatio<std::string> scorer(processed_query);
for (const auto& choice : choices) {
std::string processed_choice = default_process(choice);
if (scorer.ratio(processed_choice, 80)) {
results.push_back(choice);
}
}
关于python - 有效地模糊搜索大量数据?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/61630508/
我收到未知数据,我想以编程方式查看相关性,并将所有完全相关的变量组合在一起(忽略方向)。在下面的数据集中,我可以手动查看相关性并说 a, f, g, h一起去吧b, d, e .我怎样才能以编程方
这个问题在这里已经有了答案: use dplyr's summarise_each to return one row per function? (3 个答案) 关闭 4 年前。 作为探索性工作的
我想要完成的是使用数组存储未知大小的多项式。我在互联网上看到的是使用一个数组,每个单元格都包含系数,度数是单元格编号,但这不是有效的,因为如果我们有一个多项式,如:6x^14+x+5。这意味着我们将从
嘿伙计们,我一直在尝试解析 HTML 文件以从中抓取文本,但时不时地,我会得到一些非常奇怪的字符,例如 à€œ。我确定是“智能引号”或弯头标点符号导致了我的所有问题,因此我的临时修复是搜索所有这些字符
我原来的 data.table 由三列组成。 site、observation_number 和 id。 例如以下是 id = z 的所有观察结果 |site|observation_number|i
"Premature optimisation is the root of all evil (but it's nice to have once you have an ugly solutio
给定这个数组 X: [1 2 3 2 3 1 4 5 7 1] 和行长度数组R: [3 2 5] 表示转换后每行的长度。 我正在寻找一个计算效率高的函数来将 X reshape 为数组 Y: [[ 1
我有一些 data.frame s: # Sample data a <- data.frame(c(1:10), c(11:20)) names(a) <- c("A", "B") b <- dat
我有点困惑。列表擅长任意位置插入,但不善于随机访问? (怎么可能)如果你不能随机访问,你怎么知道在哪里插入? 同样,如果你可以在任何位置插入,为什么你不能从那个位置高效地读取? 最佳答案 如果您已经有
我有一个向量,我想计算它的移动平均值(使用宽度为 5 的窗口)。 例如,如果有问题的向量是[1,2,3,4,5,6,7,8],那么 结果向量的第一个条目应该是 [1,2,3,4,5] 中所有条目的总和
有一个随机整数生成器,它生成随机整数并在后台运行。需求设计一个API,调用时返回当时的簇数。 簇:簇是连续整数的字典顺序。例如,在这种情况下,10,7,1,2,8,5,9 簇是 3 (1,2--5--
我想做的是将一组 (n) 项分成大小相等的组(大小为 m 的组,并且为简单起见,假设没有剩余,即 n 可以被 m 整除)。这样做多次,我想确保同一组中的任何项目都不会出现两次。 为了使这稍微更具体一些
假设我有一些包含类型排列的模板表达式,在本例中它们来自 Abstract Syntax Tree : template
我已经在这方面工作了几天,似乎没有我需要的答案。 由于担心这个被标记为重复,我将解释为什么其他问题对我不起作用。 使用 DIFFLIB for Python 的任何答案都无助于我的需求。 (我在下面描
我正在使用 NumPy 数组。 我有一个 2N 长度向量 D,并希望将其一部分 reshape 为 N x N 数组 C. 现在这段代码可以满足我的要求,但对于较大的 N 来说是一个瓶颈: ``` i
我有一个问题: 让我们考虑这样的 pandas 数据框: Width Height Bitmap 67 56 59 71 61 73 ...
我目前正在用 C 语言编写一个解析器,设计它时我需要的东西之一是一个可变字符串“类”(一组对表示实例的不透明结构进行操作的函数),我将其称为 my_string。 string 类的实例只不过是包装
假设我在 --pandas-- 数据框中有以下列: x 1 589 2 354 3 692 4 474 5 739 6 731 7 259 8 723
我有一个成员函数,它接受另一个对象的常量引用参数。我想 const_cast 这个参数以便在成员函数中轻松使用它。为此,以下哪个代码更好?: void AClass::AMember(const BC
我们目前正在将 Guava 用于其不可变集合,但我惊讶地发现他们的 map 没有方法可以轻松创建只需稍作修改的新 map 。最重要的是,他们的构建器不允许为键分配新值或删除键。 因此,如果我只想修改一
我是一名优秀的程序员,十分优秀!