gpt4 book ai didi

mysql - ~200 万行 MySQL MyISAM 表上的 150ms

转载 作者:行者123 更新时间:2023-11-29 00:03:21 33 4
gpt4 key购买 nike

我正在通过一个由约 200 万行 + 约 60 万行(两个 MyISAM 表)组成的宠物项目来了解 MySQL 的性能。在两个 INT(10) 索引列上使用 BETWEEN 的范围查询,限制为 1 个返回结果大约需要 160 毫秒(包括 INNER JOIN)。我认为我的配置没有优化,正在寻找一些关于如何诊断或可能是“通用配置”的建议。

我创建了一个 gist包含两个表、查询和 my.cnf 的内容。

我在插入从 MaxMinds open database 的 CSV 文件中导入的所有数据后创建了 b 树索引.我尝试了两个单独的,现在是一个组合索引,在性能上没有差异。

我在主频为 2.6GHz (i5) 和 8GB 1600MHz RAM 的 Macbook Pro 上本地运行此程序。 MySQL 是使用可从 mysql 下载页面下载的二进制文件安装的(无法提供第三个链接,因为我的代表太低)。这是一个默认安装,没有对 my.cnf 配置文件进行重大添加,包含在要点中(位于我系统上的/usr/local/mysql-5.6.xxx/目录下)。

我担心的是我达到了大约 160 毫秒,这表明我遗漏了一些东西。我考虑过压缩表格,但我觉得我缺少其他配置。此外,myisampack 不在我的 PATH 中(我认为),所以在我进一步探索之前我正在考虑其他优化。

感谢任何建议!

$ mysql --version
/usr/local/mysql-5.6.23-osx10.8-x86_64/bin/mysql Ver 14.14 Distrib 5.6.23, for osx10.8 (x86_64) using EditLine wrapper

表格

CREATE TABLE `blocks` (
`id` int(11) unsigned NOT NULL AUTO_INCREMENT,
`begin_range` int(10) unsigned NOT NULL,
`end_range` int(10) unsigned NOT NULL,
`_location_id` int(11) unsigned DEFAULT NULL,
PRIMARY KEY (`id`),
KEY `begin_range` (`begin_range`,`end_range`)
) ENGINE=MyISAM AUTO_INCREMENT=2008839 DEFAULT CHARSET=ascii;

CREATE TABLE `locations` (
`id` int(11) unsigned NOT NULL AUTO_INCREMENT,
`country` varchar(2) NOT NULL DEFAULT '',
`region` varchar(255) DEFAULT NULL,
`city` varchar(255) DEFAULT NULL,
`postalcode` varchar(255) DEFAULT NULL,
`latitude` float NOT NULL,
`longitude` float NOT NULL,
`metro_code` int(11) DEFAULT NULL,
`area_code` int(11) DEFAULT NULL,
PRIMARY KEY (`id`)
) ENGINE=MyISAM AUTO_INCREMENT=641607 DEFAULT CHARSET=utf8;

查询

SELECT locations.latitude, locations.longitude
FROM blocks
INNER JOIN locations ON blocks._location_id = locations.id
WHERE INET_ATON('139.130.4.5') BETWEEN begin_range AND end_range
LIMIT 0, 1;

编辑;在 SELECT 上使用 EXPLAIN 更新了要点,为了方便起见也张贴在这里。

EXPLAIN SELECT locations.latitude, locations.longitude FROM blocks INNER JOIN locations ON blocks._location_id = locations.id WHERE INET_ATON('94.137.106.123') BETWEEN begin_range AND end_range LIMIT 0, 1;

+----+-------------+-----------+--------+---------------+-------------+---------+---------------------------+---------+------------------------------------+
| id | select_type | table | type | possible_keys | key | key_len | ref | rows | Extra |
+----+-------------+-----------+--------+---------------+-------------+---------+---------------------------+---------+------------------------------------+
| 1 | SIMPLE | blocks | range | begin_range | begin_range | 4 | NULL | 1095345 | Using index condition; Using where |
| 1 | SIMPLE | locations | eq_ref | PRIMARY | PRIMARY | 4 | geoip.blocks._location_id | 1 | NULL |
+----+-------------+-----------+--------+---------------+-------------+---------+---------------------------+---------+------------------------------------+
2 rows in set (0.00 sec)

编辑2;为方便起见,将数据包含在问题中。

最佳答案

问题和正常方法(您的代码举例说明)导致命中 1095345 行。我有一种方法可以在 一次 磁盘命中时执行该查询,即使缓存是冷的。

摘自 http://mysql.rjweb.org/doc.php/ipranges :

情况

您的数据包含大量不重叠的“范围”。这些可能是 IP 地址、日期时间(单个电台的显示时间)、邮政编码等。

您有成对的开始值和结束值;一个“项目”属于每个这样的“范围”。因此,本能地,您创建了一个表格,其中包含范围的开始和结束,以及有关该项目的信息。您的查询涉及一个 WHERE 子句,用于比较起始值和结束值之间的值。

问题

一旦获得大量项目,性能就会下降。您尝试使用索引,但找不到任何有效的方法。索引无法实现最佳功能,因为数据库不了解范围是不重叠的。

解决方案

我将提出一个解决方案,强制执行项目不能有重叠范围的事实。该解决方案构建了一个表来利用它,然后使用存储例程来解决它带来的笨拙。

关于mysql - ~200 万行 MySQL MyISAM 表上的 150ms,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/28692377/

33 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com