gpt4 book ai didi

hadoop - 无法删除损坏的 Hive 表

转载 作者:可可西里 更新时间:2023-11-01 16:57:06 24 4
gpt4 key购买 nike

我在 Hive 中创建的两个表有问题。我使用

创建了两个表

像 other_table 一样创建 TABLE 表;

然后尝试使用

将存储格式更改为 ORC

ALTER TABLE 表 SET FILEFORMAT ORC;

这显然损坏了表,因为它们现在在访问时抛出表未找到的错误。然而,他们仍然出现在一个有展示台的地方;陈述。现在,我不能删除表或创建具有相同名称的新表。这是 Hive CLI 的直接输出:

hive> show tables;
OK
bk_new_profile_events
bk_new_profiles
Time taken: 0.245 seconds, Fetched: 19 row(s)
hive> drop table bk_new_profiles;
FAILED: SemanticException [Error 10001]: Table not found bk_new_profiles
hive> drop table bk_new_profile_events;
FAILED: SemanticException [Error 10001]: Table not found bk_new_profile_events
hive>

最佳答案

使用hdfs命令手动删除表的目录:

hdfs dfs -rm -r the/path/to/the/table

(注意-r)

关于hadoop - 无法删除损坏的 Hive 表,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/28595222/

24 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com