- VisualStudio2022插件的安装及使用-编程手把手系列文章
- pprof-在现网场景怎么用
- C#实现的下拉多选框,下拉多选树,多级节点
- 【学习笔记】基础数据结构:猫树
本文分享自华为云社区《GaussDB(DWS)查询过滤器过滤规则原理与使用介绍》,作者: 清道夫.
适用版本:【9.1.0.100(及以上)】 。
查询过滤器在9.1.0.100之前就具备提供查询过滤功能的能力,但仅支持自动隔离反复查询被终止的查询,防止烂SQL再次执行.
老版本主要面向异常熔断机制和紧急拦截场景,前者可以与异常规则联动,自动将触发异常规则的语句添加到黑名单中,后者是需要手动找到core或者引发hang的语句进行屏蔽.
。
大家有兴趣可以翻一下之前的这篇文章 GaussDB(DWS)查询过滤器原理与应用.
9.1.0.100及9.1.0.200版本对查询过滤器做了功能的改进,可以通过多维度进行烂SQL识别,功能更丰富,配置更灵活.
在原理介绍之前,先举个简单的例子。在业务开发过程中,要想禁止对2张以上的表进行关联查询,此时可以使用DDL语句创建过滤规则:
CREATE BLOCK RULE forbid_2_t_sel FOR SELECT FILTER BY SQL('test_block_rule') with(table_num='2');
table_num指的是一个语句中出现的表的个数,此时所有查询语句不能包含有两张表以上的查询.
--两张表直接关联查询,可以正常执行
postgres=# select * from test_block_rule1 t1 join test_block_rule2 t2 on t1.c1=t2.c2;
c1 | c2 | c1 | c2
----+----+----+----
(0 rows)
--三张表直接关联查询,被拦截
postgres=# select * from test_block_rule1 t1 join test_block_rule2 t2 on t1.c1=t2.c2 join test_block_rule3 t3 on t2.c1=t3.c1;
ERROR: hit block rule forbid_2_t_sel(block_type: SELECT, regexp_sql: test_block_rule, table_num: 2(3))
说到这,整体逻辑就非常清楚了。用户可以提前识别烂SQL的特征,然后抽象出来,用DDL语句创建规则,后续会对查询的语句进行过滤,被规则筛选出来的便是烂SQL,执行前会报错,反之则可以正常执行.
查询过滤器框架及功能原理概况:
从图中可以看出,之前的查询过滤器的功能依然存在,可以保证与异常规则的联动,新版本的增强更注重规则的灵活性和功能的丰富性.
查询过滤规则,可以通过DDL进行新增、删除或者修改,其语法如下:
CREATE BLOCK RULE [ IF NOT EXISTS ] block_name
[ [ TO user_name@'host' ] | [ TO user_name ] | [ TO 'host' ] ] |
[ FOR UPDATE | SELECT | INSERT | DELETE | MERGE ] |
FILTER BY
{ SQL ( 'text' ) | TEMPLATE ( template_parameter = value ) }
[ WITH ( { with_parameter = value }, [, ... ] ) ];
其中, 。
block_name: 过滤规则的名称 。
user_name: 规则应用的对象用户 。
host: 是规则应用的客户端IP 。
FOR: 语句类型,支持对UPDATE/SELECT/INSERT/DELETE/MEGE INTO五种类型语句进行限制 。
FILTER BY: 过滤方法,包含两种形式 。
SQL: 根据关键词对语句进行正则匹配,例如表名,其长度不能超过1024,建议尽量精简 。
TEMPLATE:
unique_sql_id: 归一化的64位哈希值,重复概率较sql_hash大一些 。
sql_hash: 归一化的哈希值(md5),一般不会重复,相较unique_sql_id更推荐使用 。
with_parameter: 查询过滤规则选项参数,可以附加多个条件,满足其一便会匹配过滤.
application_name: 客户端名称 。
query_band: 负载标识 。
table_num: 包含的基表个数 。
partition_num: 扫描分区的数量 。
estimate_row: 基表输出行数 。
resource_pool: 切换的目标资源池,仅适用于9.1.0.200及以上 。
max_active_num: 可并发执行的语句个数,仅适用于9.1.0.200及以上 。
is_warning: 改变拦截行为为告警,而非默认的报错,仅适用于9.1.0.200及以上 。
其中,user_name和FILTER BY是必选项,其他可以通过业务实际需要进行配置.
ALTER BLOCK RULE block_name RENAME to new_block_name;
通过rename对查询过滤的规则进行重命名.
ALTER BLOCK RULE block_name
[ [ TO user_name@'host' ] | [ TO user_name ] | [ TO 'host' ] | [ TO DEFAULT ] ] |
[ FOR UPDATE | SELECT | INSERT | DELETE | MERGE | DEFAULT ] |
[ [ FILTER BY ]
[ { SQL ( 'text' ) | TEMPLATE ( template_parameter = value ) } ] ]
[ WITH ( { with_parameter = value }, [, ... ] ) ];
所有选项均支持二次修改,如果需要去除部分字段的限制,可以指定default关键词,例如:
--修改为只能查询1张表
postgres=# ALTER BLOCK RULE forbid_2_t_sel with(table_num='1');
ALTER BLOCK RULE
postgres=# select * from test_block_rule1 t1 join test_block_rule2 t2 on t1.c1=t2.c2;
ERROR: hit block rule forbid_2_t_sel(block_type: SELECT, regexp_sql: test_block_rule, table_num: 1(2))
postgres=# select * from test_block_rule1 t1;
c1 | c2
----+----
(0 rows)
--去除查询中表个数的限制
postgres=# ALTER BLOCK RULE forbid_2_t_sel with(table_num=default);
ALTER BLOCK RULE
--再次查询报错拦截
postgres=# select * from test_block_rule1 t1;
ERROR: hit block rule forbid_2_t_sel(block_type: SELECT, regexp_sql: test_block_rule)
DROP BLOCK RULE [ IF EXISTS ] block_name;
对于普通用户来讲是没有创建查询过滤规则权限的,需要管理员或者管理员将权限赋给某一普通用户才可以.
--切换至普通用户
postgres=# set role jack password 'xxx';
SET
--创建查询过滤规则报错提示无权限
postgres=> create block rule bl2 filter by sql('test');
ERROR: CREATE/ALTER/DROP BLOCK RULE permission denied for current user
--重置user
postgres=> reset role;
RESET
--对普通用户进行授权
postgres=# grant gs_role_block to jack;
GRANT ROLE
--切换普通用户
postgres=# set role jack password 'xxx';
SET
--再次创建成功
postgres=> create block rule bl2 filter by sql('test');
CREATE BLOCK RULE
建议创建查询过滤规则时尽量缩小适用范围,避免误过滤,或者范围过大导致性能劣化.
对于查询过滤规则的备份或者恢复的权限与操作元数据的权限一致,需要管理员或者管理员讲权限赋值给某一普通用户才可以,用户可以通过gs_dump导出查询过滤规则定义.
如果想查看或者导入查询过滤规则的定义,可以通过pg_get_blockruledef进行查询.
postgres=# select * from pg_get_blockruledef('test');
pg_get_blockruledef
----------------------------------------------------------------------
CREATE BLOCK RULE test FILTER BY SQL('test') WITH(estimate_row='3');
(1 row)
所有的查询过滤规则元数据全部保存在pg_blocklists系统表中,可以通过查看系统表浏览所有的查询过滤规则.
所有的查询过滤规则元数据全部保存在pg_blocklists系统表中,可以通过查看系统表浏览所有的查询过滤规则.
CREATE BLOCK RULE bl1
To block_user
FOR SELECT
FILTER BY SQL ('tt')
WITH(partition_num='2',
table_num='1',
estimate_row='5'
);
postgres=> select * from tt;
ERROR: hit block rule bl1(user_name: block_user, block_type: SELECT, regexp_sql: tt, partition_num: 2(3), table_num: 1(1), estimate_row: 5(1))
从上面的查询可以看出,查询语句包含了tt关键字,并且扫描的分区个数超过了2,此时执行语句被过滤拦截。需要注意的是,扫描分区的个数并不总是准确的,仅能识别静态的分区剪枝个数,执行过程中的动态剪枝并不能被识别.
。
小技巧: 使用关键词过滤时可以先使用正则匹配符~*进行测试,正则匹配是忽略大小写的.
另外,由于查询过滤器的规则直接作用在用户block_user上,因此在删除用户block_user时,会提示有依赖项,此时可以通过在语句最后加上cascade进行删除,此时作用在此用户上的查询过滤规则也会被一同删除.
。
受限于篇幅,其他选项就不再一一列举。需要注意的是,过滤规则命中的依据是,with_parameter命中任意一项,且其他字段的特征也符合即会判定为符合查询过滤规则.
。
特别注意,不同的计划,可能部分字段无法按照预期进行拦截,例如:
postgres=# create block rule test filter by sql('test')with(estimate_row='3');
CREATE BLOCK RULE
postgres=# select * from test;
c1 | c2
----+----
1 | 2
1 | 2
1 | 2
1 | 2
1 | 2
(5 rows)
此时,语句关键字是可以匹配上的,查询的行数也超过了3行的限制,那为什么无法拦截呢?
postgres=# explain verbose select * from test;
QUERY PLAN
-----------------------------------------------------------------------------------------------
id | operation | E-rows | E-distinct | E-width | E-costs
----+----------------------------------------------+--------+------------+---------+---------
1 | -> Data Node Scan on "__REMOTE_FQS_QUERY__" | 0 | | 0 | 0.00
Targetlist Information (identified by plan id)
--------------------------------------------------------
1 --Data Node Scan on "__REMOTE_FQS_QUERY__"
Output: test.c1, test.c2
Node/s: All datanodes (node_group, bucket:16384)
Remote query: SELECT c1, c2 FROM public.test
通过计划可以看出,此时是FQS计划,导致没有估算信息。因此此时无法进行拦截,对于CN轻量化的计划也是一样的,如果我们让语句强制走stream计划,那么就可以拦截成功:
postgres=# set enable_stream_operator=on;
SET
postgres=# set enable_fast_query_shipping=off;
SET
postgres=# select * from test;
ERROR: hit block rule test(regexp_sql: test, estimate_row: 3(5))
postgres=# explain verbose select * from test;
QUERY PLAN
-----------------------------------------------------------------------------------------
id | operation | E-rows | E-distinct | E-width | E-costs
----+----------------------------------------+--------+------------+---------+---------
1 | -> Row Adapter | 5 | | 8 | 69.00
2 | -> Vector Streaming (type: GATHER) | 5 | | 8 | 69.00
3 | -> CStore Scan on public.test | 5 | | 8 | 59.01
Targetlist Information (identified by plan id)
--------------------------------------------------------
1 --Row Adapter
Output: c1, c2
2 --Vector Streaming (type: GATHER)
Output: c1, c2
Node/s: All datanodes (node_group, bucket:16384)
3 --CStore Scan on public.test
Output: c1, c2
Distribute Key: c1
所以,如果估算信息不准确,也会导致误拦截或者漏拦截的情况,因为计划的信息是通过估算得到的,因此这种情况无法避免.
语句归一化的特征值,目前有两个,分别是unique_sql_id和sql_hash,两者均是对查询树进行哈希计算之后得出的,区别在于前者是64位哈希值,后者是md5值,因此前者的重复概率会大于后者,在使用时尽量使用sql_hash进行过滤.
。
很多小伙伴会问,这两个值如何获取呢?两种方法:
查看explain结果 。
postgres=> explain verbose select * from tt where a>1;
QUERY PLAN
----------------------------------------------------------------------------------------------------
id | operation | E-rows | E-distinct | E-width | E-costs
----+---------------------------------------------------+--------+------------+---------+---------
1 | -> Row Adapter | 1 | | 8 | 16.00
2 | -> Vector Streaming (type: GATHER) | 1 | | 8 | 16.00
3 | -> Vector Partition Iterator | 1 | | 8 | 6.00
4 | -> Partitioned CStore Scan on public.tt | 1 | | 8 | 6.00
Predicate Information (identified by plan id)
-------------------------------------------------
3 --Vector Partition Iterator
Iterations: 3
4 --Partitioned CStore Scan on public.tt
Filter: (tt.a > 1)
Pushdown Predicate Filter: (tt.a > 1)
Partitions Selected by Static Prune: 1..3
Targetlist Information (identified by plan id)
----------------------------------------------
1 --Row Adapter
Output: a, b
2 --Vector Streaming (type: GATHER)
Output: a, b
Node/s: datanode1
3 --Vector Partition Iterator
Output: a, b
4 --Partitioned CStore Scan on public.tt
Output: a, b
====== Query Summary =====
-----------------------------------------------------
Parser runtime: 0.029 ms
Planner runtime: 0.286 ms
Unique SQL Id: 2229243778
Unique SQL Hash: sql_aae71adfaa3d91bfe75499d92ad969e8
(34 rows)
查看topsql记录 。
queryid | 95701492082350773
query | select * from tt where a>10;
query_plan | 1 | Row Adapter (cost=14.00..14.00 rows=1 width=8)
| 2 | ->Vector Streaming (type: GATHER) (cost=0.06..14.00 rows=1 width=8)
| 3 | ->Vector Partition Iterator (cost=0.00..4.00 rows=1 width=8)
| | Iterations: 2
| 4 | ->Partitioned CStore Scan on public.tt (cost=0.00..4.00 rows=1 width=8)
| | Filter: (tt.a > 10)
| | Pushdown Predicate Filter: (tt.a > 10)
| | Partitions Selected by Static Prune: 2..3
node_group | installation
pid | 139803379566936
lane | fast
unique_sql_id | 2229243778
session_id | 1732413324.139803379566936.coordinator1
min_read_bytes | 0
max_read_bytes | 0
average_read_bytes | 0
min_write_bytes | 0
max_write_bytes | 0
average_write_bytes | 0
recv_pkg | 2
send_pkg | 2
recv_bytes | 3297
send_bytes | 57
stmt_type | SELECT
except_info |
unique_plan_id | 0
sql_hash | sql_aae71adfaa3d91bfe75499d92ad969e8
可以看出两种方法都可以轻松获取这两个语句归一化的特征值,explain可以在事前提前获取,topsql可以在语句执行后进行获取.
。
这个时候,可能很多小伙伴又会有疑问,语句中的条件有变化,是否会影响归一化的特征值呢?
答案是不会,因为归一化过程中会去除常量的影响,上述的举例中两个语句条件中的常量值并不相同,但归一化的特征值确实一样的.
由于语句的过滤,特别是关键词的正则匹配通常是比较耗时的,此时如果有过多的过滤规则,可能导致执行时间的劣化,特别是对于短查询可能影响更为明显.
。
本地实测: 正则匹配关键词长度1024,建立查询过滤规则1000条左右时,对于查询的影响在27.72ms左右,且如果考虑其他匹配项,可能影响会更大,所以,不建议添加太多的查询过滤规则。且业务稳定后可以只对特定开发或者新业务的用户创建查询过滤规则,此时查询过滤规则会优先通过绑定的用户跳过无效的过滤,减少对性能的性能的影响.
可以配置GUC参数analysis_options查看查询过滤规则对正常语句所消耗的时间.
set analysis_options='on(BLOCK_RULE)';
-- explain performance + query
User Define Profiling
-----------------------------------------------------------------
Segment Id: 3 Track name: Datanode build connection
datanode1 (time=0.288 total_calls=1 loops=1)
datanode2 (time=0.301 total_calls=1 loops=1)
datanode3 (time=0.321 total_calls=1 loops=1)
datanode4 (time=0.268 total_calls=1 loops=1)
Segment Id: 3 Track name: Datanode wait connection
datanode1 (time=0.016 total_calls=1 loops=1)
datanode2 (time=0.038 total_calls=1 loops=1)
datanode3 (time=0.021 total_calls=1 loops=1)
datanode4 (time=0.017 total_calls=1 loops=1)
Segment Id: 1 Track name: block rule check time
coordinator1 (time=0.028 total_calls=1 loops=1)
[仅适用于9.1.0.200及以上] 。
创建查询过滤规则后会拦截很多烂SQL,如何看拦截的语句有哪些呢?可以通过topsql进行查看,abort_info会记录拦截信息,也就是查询的报错信息.
postgres=# select abort_info,query from GS_WLM_SESSION_INFO where abort_info like '%hit block rule test%';
abort_info | query
-----------------------------------------------------------+---------------------
hit block rule test(regexp_sql: test, estimate_row: 3(5)) | select * from test;
(1 rows)
查询过滤器在9.1.0.100和9.1.0.200版本丰富了大量的功能,提高了烂SQL拦截的灵活性.
管控面后续版本同样可以直接通过前端页面对查询过滤规则进行管理,大家敬请期待.
有任何问题欢迎留言讨论,我们将不断丰富和完善查询过滤功能,让烂SQL无门可入.
。
华为开发者空间,汇聚鸿蒙、昇腾、鲲鹏、GaussDB、欧拉等各项根技术的开发资源及工具,致力于为每位开发者提供一台云主机、一套开发工具及云上存储空间,让开发者基于华为根生态创新。点击链接,免费领取您的专属云主机 。
。
点击关注,第一时间了解华为云新鲜技术~ 。
最后此篇关于拦截烂SQL,解读GaussDB(DWS)查询过滤器过滤规则原理的文章就讲到这里了,如果你想了解更多关于拦截烂SQL,解读GaussDB(DWS)查询过滤器过滤规则原理的内容请搜索CFSDN的文章或继续浏览相关文章,希望大家以后支持我的博客! 。
我是一名优秀的程序员,十分优秀!