gpt4 book ai didi

mysql - 聚合 MySQL 数据的建议(百万行)

转载 作者:行者123 更新时间:2023-11-29 14:15:57 25 4
gpt4 key购买 nike

谁能推荐一种策略来聚合存储在超过 100,000,000 行的 MySQL 表中的原始“点击”​​和“展示”数据?

这是表结构。

CREATE TABLE `clicks` (
`id` int(11) NOT NULL AUTO_INCREMENT,
`companyid` int(11) DEFAULT '0',
`type` varchar(32) NOT NULL DEFAULT '',
`contextid` int(11) NOT NULL DEFAULT '0',
`period` varchar(16) NOT NULL DEFAULT '',
`timestamp` int(11) NOT NULL DEFAULT '0',
`location` varchar(32) NOT NULL DEFAULT '',
`ip` varchar(32) DEFAULT NULL,
`useragent` varchar(64) DEFAULT NULL,
`processed` tinyint(1) NOT NULL DEFAULT '0',
PRIMARY KEY (`id`),
KEY `type` (`type`),
KEY `companyid` (`companyid`),
KEY `period` (`period`),
KEY `contextid` (`contextid`)
) ENGINE=MyISAM AUTO_INCREMENT=21189 DEFAULT CHARSET=latin1;

我想做的是让这些数据更容易使用。我想从中提取每周和每月的聚合,按类型、companyid 和 contextid 分组。

理想情况下,我想从生产服务器中取出这些数据,聚合它,然后将其合并回来。

我真的有点困惑,想知道是否有人有任何好的起点或策略来实际聚合数据,以便可以使用 MySQL 快速查询。我不需要此数据的“实时”报告。

我过去曾尝试过批处理 PHP 脚本,但这似乎很慢。

最佳答案

您可以使用整个每月/每周数据聚合逻辑来实现一个简单的 PHP 脚本,并使其在给定时间通过 cron 作业执行。根据软件环境,它可能会安排在晚上运行。此外,您可以在请求中传递 GET 参数来识别请求源。

关于mysql - 聚合 MySQL 数据的建议(百万行),我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/12663524/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com