- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我有一个表,每年将接收4500-6000万行物联网类型的数据。最初的愿望是永远不要删除数据,因为我们可能会将其用于不同类型的“大数据分析”。今天这个表需要支持我们的在线应用程序。应用程序需要快速的数据查询时间,通常是在过去的30或90天内。所以我认为分区可能是个好主意。
我们目前的想法是使用“老化”列,在本例中称为partition_id
。过去30天内的记录是分区id=0。31天到90天的记录是分区id=1,其他的都在分区id=2中。
所有查询都将“知道”要使用哪个分区id。其中,查询总是按sensor_id、badge_id等(请参见索引)组中的所有sensor_id或badge_id,即sensor_id in ( 3, 15, 35, 100, 1024)
等。
这是表的定义
CREATE TABLE 'device_messages' (
'id' int(10) unsigned NOT NULL AUTO_INCREMENT,
'partition_id' tinyint(3) unsigned NOT NULL DEFAULT '0',
'customer_id' int(10) unsigned NOT NULL,
'unix_timestamp' double(12, 2) NOT NULL,
'timestamp' timestamp NOT NULL DEFAULT CURRENT_TIMESTAMP,
'timezone_id' smallint(5) unsigned NOT NULL,
'event_date' date NOT NULL,
'is_day_shift' tinyint(1) unsigned NOT NULL,
'msg_id' tinyint(3) unsigned NOT NULL,
'sensor_id' int(10) unsigned NOT NULL,
'sensor_role_id' int(10) unsigned NOT NULL,
'sensor_box_build_id' int(10) unsigned NOT NULL,
'gateway_id' int(10) unsigned NOT NULL,
'location_hierarchy_id' int(10) unsigned NOT NULL,
'group_hierarchy_id' int(10) unsigned DEFAULT NULL,
'badge_id' int(10) unsigned NOT NULL,
'is_badge_deleted' tinyint(1) DEFAULT NULL,
'user_id' int(10) unsigned DEFAULT NULL,
'is_user_deleted' tinyint(1) DEFAULT NULL,
'badge_battery' double unsigned DEFAULT NULL,
'scan_duration' int(10) unsigned DEFAULT NULL,
'reading_count' tinyint(3) unsigned DEFAULT NULL,
'median_rssi_reading' tinyint(4) DEFAULT NULL,
'powerup_counter' int(10) unsigned DEFAULT NULL,
'tx_counter' int(10) unsigned DEFAULT NULL,
'activity_counter' int(10) unsigned DEFAULT NULL,
'still_counter' int(10) unsigned DEFAULT NULL,
'created_at' timestamp NULL DEFAULT CURRENT_TIMESTAMP,
PRIMARY KEY ('id', 'partition_id', 'sensor_id', 'event_date'),
KEY 'sensor_id_query_index' ('partition_id', 'sensor_id', 'event_date'),
KEY 'badge_id_query_index' ('partition_id', 'badge_id', 'event_date'),
KEY 'location_hierarchy_id_query_index' ('partition_id', 'location_hierarchy_id', 'event_date'),
KEY 'group_hierarchy_id_query_index' ('partition_id', 'group_hierarchy_id', 'event_date')
) ENGINE = InnoDB AUTO_INCREMENT = 1 DEFAULT CHARSET = utf8 COLLATE = utf8_unicode_ci
PARTITION BY RANGE (partition_id)
SUBPARTITION BY HASH (sensor_id)
(PARTITION fresh VALUES LESS THAN (1)
(SUBPARTITION f0 ENGINE = InnoDB,
SUBPARTITION f1 ENGINE = InnoDB,
SUBPARTITION f2 ENGINE = InnoDB,
SUBPARTITION f3 ENGINE = InnoDB,
SUBPARTITION f4 ENGINE = InnoDB,
SUBPARTITION f5 ENGINE = InnoDB,
SUBPARTITION f6 ENGINE = InnoDB,
SUBPARTITION f7 ENGINE = InnoDB,
SUBPARTITION f8 ENGINE = InnoDB,
SUBPARTITION f9 ENGINE = InnoDB),
PARTITION archive VALUES LESS THAN (2)
(SUBPARTITION a0 ENGINE = InnoDB,
SUBPARTITION a1 ENGINE = InnoDB,
SUBPARTITION a2 ENGINE = InnoDB,
SUBPARTITION a3 ENGINE = InnoDB,
SUBPARTITION a4 ENGINE = InnoDB,
SUBPARTITION a5 ENGINE = InnoDB,
SUBPARTITION a6 ENGINE = InnoDB,
SUBPARTITION a7 ENGINE = InnoDB,
SUBPARTITION a8 ENGINE = InnoDB,
SUBPARTITION a9 ENGINE = InnoDB),
PARTITION deep_archive VALUES LESS THAN MAXVALUE
(SUBPARTITION C0 ENGINE = InnoDB,
SUBPARTITION C1 ENGINE = InnoDB,
SUBPARTITION C2 ENGINE = InnoDB,
SUBPARTITION C3 ENGINE = InnoDB,
SUBPARTITION C4 ENGINE = InnoDB,
SUBPARTITION C5 ENGINE = InnoDB,
SUBPARTITION C6 ENGINE = InnoDB,
SUBPARTITION C7 ENGINE = InnoDB,
SUBPARTITION C8 ENGINE = InnoDB,
SUBPARTITION C9 ENGINE = InnoDB)) ;
SELECT * FROM device_messages
WHERE partition_id = 0
AND 'event_date' BETWEEN '2019-08-07' AND '2019-08-13'
AND 'sensor_id' in ( 3317, 3322, 3323, 3327, 3328, 3329, 3331, 3332, 3333, 3334, 3335, 3336, 3337, 3338, 3339, 3340, 3341, 3342 )
ORDER BY 'unix_timestamp' asc
partition_id
的人工老化列,所以我也意识到我不能对分区进行任何真正的操作,所以我认为我至少失去了分区的一些值。
最佳答案
PARTITIONing
不是性能灵丹妙药。
不删除?好的,主要用途(DROP PARTITION
比DELETE
快)不可用。
摘要表是解决数据仓库性能问题的答案。见http://mysql.rjweb.org/doc.php/summarytables
(现在我将详细阅读问题和任何答案;也许我会回来有一些改变。)
图式批判
由于您预计有数百万行,因此收缩数据类型相当重要。customer_id
是一个4字节整数。如果预期不超过几千,请使用2字节SMALLINT UNSIGNED
。另请参见MEDIUMINT UNSIGNED
。其他所有INTs
也一样。'unix_timestamp' double(12, 2)
很奇怪。TIMESTAMP(2)
有什么问题,它会更小?'badge_battery' double
——分辨率过高?DOUBLE
是8字节;FLOAT
是4,有~7个显著数字。
大多数列都NULLable
。它们真的是可选的吗?(NULL
的开销很小;在实际情况下使用NOT NULL
。)
当行变得不再“新鲜”时,您是否要做大量的UPDATE
来更改该列?请考虑该声明将产生的巨大影响。最好创建新分区并更改查询。如果您有AND some_date > some_column
并且该列是PARTITION BY RANGE(TO_DAYS(..))
的话,这个方法尤其有效。
我还没有看到SUBPARTITIONing
的理由。
非分区
鉴于这是典型的:
SELECT * FROM device_messages
WHERE partition_id = 0
AND 'event_date' BETWEEN '2019-08-07' AND '2019-08-13'
AND 'sensor_id' in ( 3317, 3322, 3323, 3327, 3328, 3329, 3331, 3332,
3333, 3334, 3335, 3336, 3337, 3338, 3339, 3340, 3341, 3342 )
ORDER BY 'unix_timestamp' asc
partition_key
)
event_date
;改为使用
unix_timestamp
SELECT * FROM device_messages
WHERE `unix_timestamp` >= '2019-08-07'
AND `unix_timestamp` < '2019-08-07' + INTERVAL 1 WEEK
AND sensor_id in ( 3317, 3322, 3323, 3327, 3328, 3329, 3331, 3332,
3333, 3334, 3335, 3336, 3337, 3338, 3339, 3340, 3341, 3342 )
ORDER BY `unix_timestamp` asc
INDEX(sensor_id, `unix_timestamp`)
ORDER BY
)。
ORDER BY
顺序获取行。
PRIMARY KEY(sensor_id, `unix_timestamp`, id), -- (`id` adds uniqueness)
INDEX(id), -- to keep AUTO_INCREMENT happy
device_value FLOAT
或类似的东西。我将用它作为一个假设的例子:
CREATE TABLE Summary (
event_date DATE NOT NULL, -- reconstructed from `unix_timestamp`
sensor_id ...,
ct SMALLINT UNSIGNED, -- number of readings for the day
sum_value FLOAT NOT NULL, -- SUM(device_value)
sum2 -- if you need standard deviation
min_value, etc -- if you want those
PRIMARY KEY(sensor_id, event_date)
) ENGINE=InnoDB;
INSERT INTO Summary (sensor_id, event_date, ct, sum_value, ...)
SELECT sensor_id, DATE(`unix_timestamp`),
COUNT(*), SUM(device_value), ...
FROM device_messages
WHERE `unix_timestamp` >= CURDATE() - INTERVAL 1 DAY
AND `unix_timestamp` < CURDATE()
GROUP BY sensor_id;
Average: SUM(sum_value) / SUM(ct)
unix_timestamp
、
timestamp
、
event_date
、
created_at
——都有“相同”的价值和意义??
WHERE `dt` >= '2019-08-07'
AND `dt` < '2019-08-07' + INTERVAL 1 DAY
关于mysql - 对大型MySQL InnoDB表进行分区的方法,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/57484104/
目前我正在构建相当大的网络系统,我需要强大的 SQL 数据库解决方案。我选择 Mysql 而不是 Postgres,因为一些任务需要只读(MyISAM 引擎)而其他任务需要大量写入(InnoDB)。
我在 mysql 中使用如下命令。当它显示表格数据时,它被格式化为一个非常干净的表格,间距均匀且 |作为列分隔符。 SELECT * FROM TABLE_NAME; 当我从 CLI 运行命令时,如下
我知道这个问题之前已经被问过好几次了,我已经解决了很多问题,但到目前为止没有任何效果。 MySQL 试图将自身安装到的目录 (usr/local/mysql) 肯定有问题。关于我的错误的奇怪之处在于我
以下是我的 SQL 数据结构,我正在尝试如下两个查询: Select Wrk_ID, Wrk_LastName, Skill_Desc from Worker, Skill where
我们有一个本地 mysql 服务器(不在公共(public)域上),并希望将该服务器复制到我们拥有的 google 云 sql 实例。我的问题是:1.这可能吗?2.我们的本地服务器只能在本地网络上访问
我有一个表(test_table),其中一些字段值(例如字段 A、B 和 C)是从外部应用程序插入的,还有一个字段(字段 D),我想从现有表(store_table)插入其值,但在插入前者(A、B 和
我想创建一个 AWS RDS 实例,然后使用 terraform 管理数据库用户。因此,首先,我创建了一个 RDS 实例,然后使用创建的 RDS 实例初始化 mysql 提供程序,以进一步将其用于用户
当用户在我的网站上注册时,他们会在我的一个数据库中创建自己的表格。该表存储用户发布的所有帖子。我还想做的是也为他们生成自己的 MySql 用户——该用户仅有权从他们的表中读取、写入和删除。 创建它应该
我有一个关于 ColdFusion 和 Mysql 的问题。我有两个表:PRODUCT 和 PRODUCT_CAT。我想列出包含一些标记为:IS_EXTRANET=1 的特殊产品的类别。所以我写了这个
我想获取 recipes_id 列的值,以获取包含 ingredient_id 的 2,17 和 26 条目的值。 假设 ingredient_id 2 丢失则不获取记录。 我已经尝试过 IN 运算符
在 Ubuntu 中,我通常安装两者,但 MySQL 的客户端和服务器之间有什么区别。 作为奖励,当一个新语句提到它需要 MySQL 5.x 时,它是指客户端、服务器还是两者兼而有之。例如这个链接ht
我重新访问了我的数据库并注意到我有一些 INT 类型的主键。 这还不够独特,所以我想我会有一个指导。 我来自微软 sql 背景,在 ssms 中你可以 选择类型为“uniqeidentifier”并自
我的系统上有 MySQL,我正在尝试确定它是 Oracle MySQL 还是 MySQL。 Oracle MySQL 有区别吗: http://www.oracle.com/us/products/m
我是在生产 MySQL 中运行的应用程序的新维护者。之前的维护者已经离开,留下的文档很少,而且联系不上了。 我面临的问题是执行以下请求大约需要 10 秒: SELECT COUNT(*) FROM `
我有两个位于不同机器上的 MySQL 数据库。我想自动将数据从一台服务器传输到另一台服务器。比方说,我希望每天早上 4:00 进行数据传输。 可以吗?是否有任何 MySQL 内置功能可以让我们做到这一
有什么方法可以使用 jdbc 查询位于 mysql 根目录之外的目录中的 mysql 表,还是必须将它们移动到 mysql 根目录内的数据库文件夹中?我在 Google 上搜索时没有找到任何东西。 最
我在 mysql 数据库中有两个表。成员和 ClassNumbers。两个表都有一个付费年份字段,都有一个代码字段。我想用代码数字表中的值更新成员表中的付费年份,其中成员中的代码与 ClassNumb
情况:我有 2 台服务器,其中一台当前托管一个实时 WordPress 站点,我希望能够将该站点转移到另一台服务器,以防第一台服务器出现故障。传输源文件很容易;传输数据库是我需要弄清楚如何做的。两台服
Phpmyadmin 有一个功能是“复制数据库到”..有没有mysql查询来写这个函数?类似于将 db A 复制到新的 db B。 最佳答案 首先创建复制数据库: CREATE DATABASE du
我有一个使用 mySQL 作为后端的库存软件。我已经在我的计算机上对其进行了测试,并且运行良好。 当我在计算机上安装我的软件时,我必须执行以下步骤: 安装 mySQL 服务器 将用户名指定为“root
我是一名优秀的程序员,十分优秀!