gpt4 book ai didi

postgresql - 优化 postgres 相似性查询(pg_trgm + gin 索引)

转载 作者:行者123 更新时间:2023-11-29 11:24:55 25 4
gpt4 key购买 nike

我定义了以下索引:

CREATE INDEX
users_search_idx
ON
auth_user
USING
gin(
username gin_trgm_ops,
first_name gin_trgm_ops,
last_name gin_trgm_ops
);

我正在执行以下查询:

PREPARE user_search (TEXT, INT) AS
SELECT
username,
email,
first_name,
last_name,
( -- would probably do per-field weightings here
s_username + s_first_name + s_last_name
) rank
FROM
auth_user,
similarity(username, $1) s_username,
similarity(first_name, $1) s_first_name,
similarity(last_name, $1) s_last_name
WHERE
username % $1 OR
first_name % $1 OR
last_name % $1
ORDER BY
rank DESC
LIMIT $2;

auth_user 表有 620 万行。

查询速度似乎在很大程度上取决于similarity 查询可能返回的结果数量。

通过 set_limit 增加相似性阈值会有所帮助,但会通过消除部分匹配降低结果的有用性。

一些搜索在 200 毫秒内返回,其他搜索大约需要 10 秒。

我们已经使用 Elasticsearch 实现了此功能,可以在 < 200 毫秒内返回任何查询,同时进行更复杂(更好)的排名。

我想知道是否有任何方法可以改进这一点以获得更一致的性能?

据我了解,GIN 索引(倒排索引)与 Elasticsearch 使用的基本方法相同,因此我认为可以进行一些优化。

EXPLAIN ANALYZE EXECUTE user_search('mel', 20) 显示:

Limit  (cost=54099.81..54099.86 rows=20 width=52) (actual time=10302.092..10302.104 rows=20 loops=1)
-> Sort (cost=54099.81..54146.66 rows=18739 width=52) (actual time=10302.091..10302.095 rows=20 loops=1)
Sort Key: (((s_username.s_username + s_first_name.s_first_name) + s_last_name.s_last_name)) DESC
Sort Method: top-N heapsort Memory: 26kB
-> Nested Loop (cost=382.74..53601.17 rows=18739 width=52) (actual time=118.164..10293.765 rows=8380 loops=1)
-> Nested Loop (cost=382.74..53132.69 rows=18739 width=56) (actual time=118.150..10262.804 rows=8380 loops=1)
-> Nested Loop (cost=382.74..52757.91 rows=18739 width=52) (actual time=118.142..10233.990 rows=8380 loops=1)
-> Bitmap Heap Scan on auth_user (cost=382.74..52383.13 rows=18739 width=48) (actual time=118.128..10186.816 rows=8380loops=1)"
Recheck Cond: (((username)::text % 'mel'::text) OR ((first_name)::text % 'mel'::text) OR ((last_name)::text %'mel'::text))"
Rows Removed by Index Recheck: 2434523
Heap Blocks: exact=49337 lossy=53104
-> BitmapOr (cost=382.74..382.74 rows=18757 width=0) (actual time=107.436..107.436 rows=0 loops=1)
-> Bitmap Index Scan on users_search_idx (cost=0.00..122.89 rows=6252 width=0) (actual time=40.200..40.200rows=88908 loops=1)"
Index Cond: ((username)::text % 'mel'::text)
-> Bitmap Index Scan on users_search_idx (cost=0.00..122.89 rows=6252 width=0) (actual time=43.847..43.847rows=102028 loops=1)"
Index Cond: ((first_name)::text % 'mel'::text)
-> Bitmap Index Scan on users_search_idx (cost=0.00..122.89 rows=6252 width=0) (actual time=23.387..23.387rows=58740 loops=1)"
Index Cond: ((last_name)::text % 'mel'::text)
-> Function Scan on similarity s_username (cost=0.00..0.01 rows=1 width=4) (actual time=0.004..0.004 rows=1 loops=8380)
-> Function Scan on similarity s_first_name (cost=0.00..0.01 rows=1 width=4) (actual time=0.002..0.002 rows=1 loops=8380)
-> Function Scan on similarity s_last_name (cost=0.00..0.01 rows=1 width=4) (actual time=0.002..0.002 rows=1 loops=8380)
Execution time: 10302.559 ms

服务器是在 Amazon RDS 上运行的 Postgres 9.6.1

更新

1.

发布问题后不久,我发现了以下信息:https://www.postgresql.org/message-id/464F3C5D.2000700@enterprisedb.com

所以我试过了

-> SHOW work_mem;
4MB
-> SET work_mem='12MB';
-> EXECUTE user_search('mel', 20);
(results returned in ~1.5s)

这有了很大的改进(之前 > 10 秒)!

对于类似的查询,1.5s 仍然比 ES 慢很多,所以我仍然想听听任何优化查询的建议。

2.

作为对评论的回应,在看到这个问题(Postgresql GIN index slower than GIST for pg_trgm)后,我尝试了完全相同的设置,使用 GIST 索引代替 GIN 索引。

使用默认 work_mem='4MB' 尝试上面的相同搜索,它在 ~3.5 秒内返回。增加 work_mem 没有任何区别。

由此我得出结论,GIST 索引的内存效率更高(没有像 GIN 那样遇到病理情况)但是当 GIN 正常工作时比 GIN 慢。这与推荐 GIN 索引的文档中描述的内容一致。

3.

我还是不明白为什么要花这么多时间:

 ->  Bitmap Heap Scan on auth_user  (cost=382.74..52383.13 rows=18739 width=48) (actual time=118.128..10186.816 rows=8380loops=1)"
Recheck Cond: (((username)::text % 'mel'::text) OR ((first_name)::text % 'mel'::text) OR ((last_name)::text %'mel'::text))"
Rows Removed by Index Recheck: 2434523
Heap Blocks: exact=49337 lossy=53104

我不明白为什么需要这一步或它在做什么。

对于每个 username % $1 子句,在它下面有三个 Bitmap Index Scan...然后这些结果与 BitmapOr步骤。这些部分都非常快。

但即使在我们没有用完工作内存的情况下,我们仍然会在 Bitmap Heap Scan 上花费将近整整一秒。

最佳答案

我希望使用这种方法很多 更快的结果:

1.

创建一个 GiST 索引,其中 1 列包含连接的值:

CREATE INDEX users_search_idx ON auth_user
USING gist((username || ' ' || first_name || ' ' || last_name) gist_trgm_ops);

这假设所有 3 列都被定义为 NOT NULL(您没有指定)。否则你需要做更多。
为什么不使用 concat_ws() 进行简化?

2.

使用适当的 查询,匹配上面的索引:

SELECT username, email, first_name, last_name
, similarity(username , $1) AS s_username
, similarity(first_name, $1) AS s_first_name
, similarity(last_name , $1) AS s_last_name
, row_number() OVER () AS rank -- greatest similarity first
FROM auth_user
WHERE (username || ' ' || first_name || ' ' || last_name) % $1 -- !!
ORDER BY (username || ' ' || first_name || ' ' || last_name) <-> $1 -- !!
LIMIT $2;

WHEREORDER BY 中的表达式必须匹配索引表达式!

特别是 ORDER BY rank(就像你有的那样)对于从更大的合格行池中挑选的小 LIMIT 总是表现不佳,因为它不能使用直接索引:rank 背后的复杂表达式必须计算每个 符合条件的行,然后在返回最佳匹配的小选择之前对所有行进行排序。这比真正的最近邻查询昂贵得多,后者可以直接从索引中选择最佳结果,甚至无需查看其余部分。

具有空窗口定义的

row_number() 仅反射(reflect)由同一 SELECTORDER BY 产生的排序。

相关回答:


至于你的项目3.,我添加了你提到的问题的答案,应该解释一下:

关于postgresql - 优化 postgres 相似性查询(pg_trgm + gin 索引),我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/43867449/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com