- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
设置
我有一个最终包含130亿行的数据库。行的关键是4个值:(asn, cty (country), src (source), time)
。asn
大约有60000个不同的值,country
大约有200个不同的值,source
大约有55个不同的值——尽管不是所有的三元组都有效。大约有50万个有效的三胞胎。
对于每个有效的三元组,我每5分钟将数据记录到数据库中一次,其中time
是记录数据的时间。90天后,我们会删除末尾的数据。该收益率12 (iterations per hour) * 24 (hours) * 90 (days) = 25920 rows per (asn, country, source) tuple
我的度量表目前看起来是这样的:
create table `metrics` (
`time` int(10) unsigned NOT NULL,
`asn` int(10) unsigned NOT NULL,
`cty` char(2) NOT NULL,
`src` char(3) NOT NULL,
`reqs` int(10) unsigned DEFAULT NULL,
`rtt` float unsigned DEFAULT NULL,
`rexb` float unsigned DEFAULT NULL,
`nae` float unsigned DEFAULT NULL,
`util` float unsigned DEFAULT NULL,
PRIMARY KEY (`time`, `asn`, `cty`, `src`),
KEY (`asn`, `cty`, `src`)
) ENGINE=InnoDB DEFAULT CHARACTER SET ascii
partition by range(time) (
PARTITION start VALUES LESS THAN (0),
PARTITION from20171224 VALUES LESS THAN (UNIX_TIMESTAMP('2017-12-31')),
PARTITION from20171231 VALUES LESS THAN (UNIX_TIMESTAMP('2018-01-07')),
PARTITION from20180107 VALUES LESS THAN (UNIX_TIMESTAMP('2018-01-14')),
PARTITION from20180114 VALUES LESS THAN (UNIX_TIMESTAMP('2018-01-21')),
PARTITION from20180121 VALUES LESS THAN (UNIX_TIMESTAMP('2018-01-28')),
PARTITION from20180128 VALUES LESS THAN (UNIX_TIMESTAMP('2018-02-04')),
PARTITION from20180204 VALUES LESS THAN (UNIX_TIMESTAMP('2018-02-11')),
PARTITION from20180211 VALUES LESS THAN (UNIX_TIMESTAMP('2018-02-18')),
PARTITION from20180218 VALUES LESS THAN (UNIX_TIMESTAMP('2018-02-25')),
PARTITION from20180225 VALUES LESS THAN (UNIX_TIMESTAMP('2018-03-04')),
PARTITION from20180304 VALUES LESS THAN (UNIX_TIMESTAMP('2018-03-11')),
PARTITION from20180311 VALUES LESS THAN (UNIX_TIMESTAMP('2018-03-18')),
PARTITION from20180318 VALUES LESS THAN (UNIX_TIMESTAMP('2018-03-25')),
PARTITION from20180325 VALUES LESS THAN (UNIX_TIMESTAMP('2018-04-01')),
PARTITION future VALUES LESS THAN MAXVALUE
);
create table `thresholds` (
`time` int(10) unsigned NOT NULL,
`rtt_good` float NOT NULL DEFAULT 0,
`rtt_bad` float NOT NULL DEFAULT 100,
`rexb_good` float NOT NULL DEFAULT 0,
`rexb_bad` float NOT NULL DEFAULT 100,
`nae_good` float NOT NULL DEFAULT 0,
`nae_bad` float NOT NULL DEFAULT 100,
`util_good` float NOT NULL DEFAULT 0,
`util_bad` float NOT NULL DEFAULT 100,
PRIMARY KEY (`time`)
) ENGINE=InnoDB
partition by range(time) (
PARTITION start VALUES LESS THAN (0),
PARTITION from20171224 VALUES LESS THAN (UNIX_TIMESTAMP('2017-12-31')),
PARTITION from20171231 VALUES LESS THAN (UNIX_TIMESTAMP('2018-01-07')),
PARTITION from20180107 VALUES LESS THAN (UNIX_TIMESTAMP('2018-01-14')),
PARTITION from20180114 VALUES LESS THAN (UNIX_TIMESTAMP('2018-01-21')),
PARTITION from20180121 VALUES LESS THAN (UNIX_TIMESTAMP('2018-01-28')),
PARTITION from20180128 VALUES LESS THAN (UNIX_TIMESTAMP('2018-02-04')),
PARTITION from20180204 VALUES LESS THAN (UNIX_TIMESTAMP('2018-02-11')),
PARTITION from20180211 VALUES LESS THAN (UNIX_TIMESTAMP('2018-02-18')),
PARTITION from20180218 VALUES LESS THAN (UNIX_TIMESTAMP('2018-02-25')),
PARTITION from20180225 VALUES LESS THAN (UNIX_TIMESTAMP('2018-03-04')),
PARTITION from20180304 VALUES LESS THAN (UNIX_TIMESTAMP('2018-03-11')),
PARTITION from20180311 VALUES LESS THAN (UNIX_TIMESTAMP('2018-03-18')),
PARTITION from20180318 VALUES LESS THAN (UNIX_TIMESTAMP('2018-03-25')),
PARTITION from20180325 VALUES LESS THAN (UNIX_TIMESTAMP('2018-04-01')),
PARTITION future VALUES LESS THAN MAXVALUE
);
SELECT
t.time * 1000 as time,
@rtt := coalesce(m_sum.weighted_rtt, @rtt) as rtt,
floor(least(100, greatest(0,
100 * (coalesce(m_sum.weighted_rtt, @rtt) - t.rtt_bad) / (t.rtt_good - t.rtt_bad)
))) as rtt_quality,
@util := coalesce(m_sum.weighted_util, @util) as util,
floor(least(100, greatest(0,
100 * (coalesce(m_sum.weighted_util, @util) - t.util_bad) / (t.util_good - t.util_bad)
))) as util_quality
FROM
thresholds as t
LEFT JOIN
(
SELECT
m.time,
sum(m.rtt*m.reqs)/sum(m.reqs) AS weighted_rtt,
sum(m.util*m.reqs)/sum(m.reqs) AS weighted_util
FROM metrics AS m
WHERE m.asn = '7018' and m.cty = 'us'
GROUP BY m.time
) AS m_sum ON t.time = m_sum.time
ORDER BY t.time asc;
+---------------+---------+-------------+----------+--------------+
| time | rtt | rtt_quality | util | util_quality |
+---------------+---------+-------------+----------+--------------+
| 1521234900000 | NULL | NULL | NULL | NULL |
| 1521235200000 | 45 | 80 | 3000 | 40 |
| 1521235500000 | 45 | 80 | 3000 | 40 |
| 1521235800000 | 65 | 70 | 2000 | 60 |
| 1521236100000 | 65 | 70 | 2000 | 60 |
| 1521236400000 | 65 | 70 | 2000 | 60 |
| 1521236700000 | 65 | 70 | 2000 | 60 |
| 1521237000000 | 120 | 50 | 4500 | 10 |
... ... ... ... ...
asn
和
cty
)
time
排序
time
+
asn
对),那么使用前面5分钟间隔的值(使用用户定义的变量)
cty
)
*_quality
查询。我可以改变:
SELECT
查询
SELECT
值,而不是完全的25920),它看起来像NuNDB是最快的,比3-4倍的性能好(NiNDB返回数据大约0.7秒,Columnstore花费了大约2.5秒)。
time
+
asn
的查询时速度更快。InnoDB似乎有中间缓存,因为我可以使用相同的
country
+
asn
运行其他查询,它们在1秒内完成,但即使在Columnstore中运行完全相同的查询也需要30秒
country
,
metrics_by_asn
和
metrics_by_cty
。前两个存储度量的加权平均值,并且只在
metrics_by_time
或
(asn, time)
上设置键。这有效地减少了此查询:
SELECT
m.time,
sum(m.rtt*m.reqs)/sum(m.reqs) AS weighted_rtt,
sum(m.util*m.reqs)/sum(m.reqs) AS weighted_util
FROM metrics AS m
WHERE m.asn = '7018'
GROUP BY m.time
SELECT
m.time,
weighted_rtt,
weighted_util
FROM metrics_by_asn AS m
WHERE m.asn = '7018'
(cty, time)
返回汇总统计,如最大RTT、平均RTT、行数等。
metrics_by_time
表有两个原因。首先,我没想到会有令人难以置信的业绩增长。平均而言,特定的
metrics_by_asn_and_cty
+
asn
对仅从1.3个不同的源提供服务。因此,在大多数情况下,预先聚合这不会减少我们需要选择的行数。其次,我们已经达到了一些主要的磁盘使用限制。单看我们的度量表,我们就有130亿行,大约是每行35字节。这个数据库是455G。再加上预聚合的表和其他表,我们在其中转储用于计算这些度量的原始数据,我们在磁盘上大约有850GB。我还没有被告知我可以存储多少数据的严格限制,但我正在努力保持在1兆字节以下以确保安全。
最佳答案
您在文章中显示了CREATE表,这很好,但没有提到任何其他查询分析。在调查查询优化时,应考虑:
EXPLAIN查看查询优化计划,以及优化器如何选择使用索引
Query profiling
PERFORMANCE_SCHEMA
系统架构for MySQL或for MariaDB
我试过至少为你的子查询测试EXPLAIN。顺便说一句,列pop
在索引中提到,但是没有出现在表中,所以您还没有发布真正的CREATE表。
我明白了:
mysql> EXPLAIN SELECT m.time, sum(m.rtt*m.reqs)/sum(m.reqs) AS weighted_rtt,
sum(m.util*m.reqs)/sum(m.reqs) AS weighted_util FROM metrics AS m
WHERE m.asn = '7018' and m.cty = 'us' GROUP BY m.time\G
*************************** 1. row ***************************
id: 1
select_type: SIMPLE
table: m
type: ref
possible_keys: PRIMARY,asn,bk1
key: asn
key_len: 6
ref: const,const
rows: 1
Extra: Using index condition; Using where; Using temporary; Using filesort
const,const
所示。而且
Using temporary; Using filesort
通常表示查询的开销很高。
mysql> alter table metrics add index bk1 (asn,cty,time);
mysql> EXPLAIN SELECT m.time, sum(m.rtt*m.reqs)/sum(m.reqs) AS weighted_rtt,
sum(m.util*m.reqs)/sum(m.reqs) AS weighted_util FROM metrics AS m use index(bk1)
WHERE m.asn = '7018' and m.cty = 'us' GROUP BY m.time\G
*************************** 1. row ***************************
id: 1
select_type: SIMPLE
table: m
type: ref
possible_keys: PRIMARY,asn,bk1
key: bk1
key_len: 6
ref: const,const
rows: 1
Extra: Using index condition; Using where
time
列放在用于筛选的两列之后,GROUP BY可以按索引顺序执行。
mysql> alter table metrics add index bk2 (asn,cty,time,rtt,reqs,util);
mysql> EXPLAIN SELECT m.time, sum(m.rtt*m.reqs)/sum(m.reqs) AS weighted_rtt,
sum(m.util*m.reqs)/sum(m.reqs) AS weighted_util FROM metrics AS m use index(bk2)
WHERE m.asn = '7018' and m.cty = 'us' GROUP BY m.time\G
*************************** 1. row ***************************
id: 1
select_type: SIMPLE
table: m
type: ref
possible_keys: PRIMARY,asn,bk1,bk2
key: bk2
key_len: 6
ref: const,const
rows: 1
Extra: Using where; Using index
Using index
是个好兆头。这称为“覆盖索引”,这意味着查询可以通过读取索引来获取所需的所有列,而不必读取表。这是一种有用的技巧。
关于mysql - 改善MySQL SELECT性能,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/49515343/
目前我正在构建相当大的网络系统,我需要强大的 SQL 数据库解决方案。我选择 Mysql 而不是 Postgres,因为一些任务需要只读(MyISAM 引擎)而其他任务需要大量写入(InnoDB)。
我在 mysql 中使用如下命令。当它显示表格数据时,它被格式化为一个非常干净的表格,间距均匀且 |作为列分隔符。 SELECT * FROM TABLE_NAME; 当我从 CLI 运行命令时,如下
我知道这个问题之前已经被问过好几次了,我已经解决了很多问题,但到目前为止没有任何效果。 MySQL 试图将自身安装到的目录 (usr/local/mysql) 肯定有问题。关于我的错误的奇怪之处在于我
以下是我的 SQL 数据结构,我正在尝试如下两个查询: Select Wrk_ID, Wrk_LastName, Skill_Desc from Worker, Skill where
我们有一个本地 mysql 服务器(不在公共(public)域上),并希望将该服务器复制到我们拥有的 google 云 sql 实例。我的问题是:1.这可能吗?2.我们的本地服务器只能在本地网络上访问
我有一个表(test_table),其中一些字段值(例如字段 A、B 和 C)是从外部应用程序插入的,还有一个字段(字段 D),我想从现有表(store_table)插入其值,但在插入前者(A、B 和
我想创建一个 AWS RDS 实例,然后使用 terraform 管理数据库用户。因此,首先,我创建了一个 RDS 实例,然后使用创建的 RDS 实例初始化 mysql 提供程序,以进一步将其用于用户
当用户在我的网站上注册时,他们会在我的一个数据库中创建自己的表格。该表存储用户发布的所有帖子。我还想做的是也为他们生成自己的 MySql 用户——该用户仅有权从他们的表中读取、写入和删除。 创建它应该
我有一个关于 ColdFusion 和 Mysql 的问题。我有两个表:PRODUCT 和 PRODUCT_CAT。我想列出包含一些标记为:IS_EXTRANET=1 的特殊产品的类别。所以我写了这个
我想获取 recipes_id 列的值,以获取包含 ingredient_id 的 2,17 和 26 条目的值。 假设 ingredient_id 2 丢失则不获取记录。 我已经尝试过 IN 运算符
在 Ubuntu 中,我通常安装两者,但 MySQL 的客户端和服务器之间有什么区别。 作为奖励,当一个新语句提到它需要 MySQL 5.x 时,它是指客户端、服务器还是两者兼而有之。例如这个链接ht
我重新访问了我的数据库并注意到我有一些 INT 类型的主键。 这还不够独特,所以我想我会有一个指导。 我来自微软 sql 背景,在 ssms 中你可以 选择类型为“uniqeidentifier”并自
我的系统上有 MySQL,我正在尝试确定它是 Oracle MySQL 还是 MySQL。 Oracle MySQL 有区别吗: http://www.oracle.com/us/products/m
我是在生产 MySQL 中运行的应用程序的新维护者。之前的维护者已经离开,留下的文档很少,而且联系不上了。 我面临的问题是执行以下请求大约需要 10 秒: SELECT COUNT(*) FROM `
我有两个位于不同机器上的 MySQL 数据库。我想自动将数据从一台服务器传输到另一台服务器。比方说,我希望每天早上 4:00 进行数据传输。 可以吗?是否有任何 MySQL 内置功能可以让我们做到这一
有什么方法可以使用 jdbc 查询位于 mysql 根目录之外的目录中的 mysql 表,还是必须将它们移动到 mysql 根目录内的数据库文件夹中?我在 Google 上搜索时没有找到任何东西。 最
我在 mysql 数据库中有两个表。成员和 ClassNumbers。两个表都有一个付费年份字段,都有一个代码字段。我想用代码数字表中的值更新成员表中的付费年份,其中成员中的代码与 ClassNumb
情况:我有 2 台服务器,其中一台当前托管一个实时 WordPress 站点,我希望能够将该站点转移到另一台服务器,以防第一台服务器出现故障。传输源文件很容易;传输数据库是我需要弄清楚如何做的。两台服
Phpmyadmin 有一个功能是“复制数据库到”..有没有mysql查询来写这个函数?类似于将 db A 复制到新的 db B。 最佳答案 首先创建复制数据库: CREATE DATABASE du
我有一个使用 mySQL 作为后端的库存软件。我已经在我的计算机上对其进行了测试,并且运行良好。 当我在计算机上安装我的软件时,我必须执行以下步骤: 安装 mySQL 服务器 将用户名指定为“root
我是一名优秀的程序员,十分优秀!