gpt4 book ai didi

memory-management - Redshift 查询 : error xx000 disk full redshift

转载 作者:行者123 更新时间:2023-12-04 02:06:43 24 4
gpt4 key购买 nike

我执行了下面的查询

select employee_name, max(employee_dept) as dept
from employeeDB
where employee_name is not null and employee_name != ''
group by employee_name
order by employee_name asc
limit 1000

并收到错误 ERROR: XX000: Disk Full

通过执行以下查询进行调查后,我发现我有 94​​1 GB 的可用空间和 5000 GB 的已用空间。

select
sum(capacity)/1024 as capacity_gbytes,
sum(used)/1024 as used_gbytes,
(sum(capacity) - sum(used))/1024 as free_gbytes
from
stv_partitions where part_begin=0;

任何人都可以建议如何缓解这一挑战,以便我可以获得预期的结果吗?

最佳答案

可用磁盘空间对于在 Redshift 上执行查询很重要。这就是为什么 VACUUM 过程很重要并且应该定期执行的原因,尤其是对于经常发生删除的表。

你最近吸过你的 table 吗?

检查 VACUUM documentation并查看 Amazon Redshift at 100% disk usage due to VACUUM query StackOverflow 上的问题。

关于memory-management - Redshift 查询 : error xx000 disk full redshift,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/42762587/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com