gpt4 book ai didi

apache-spark - SparkSQL/配置单元 : equivalent of MySQL's `information_schema.table.{data_length, table_rows}` ?

转载 作者:行者123 更新时间:2023-12-04 16:04:54 26 4
gpt4 key购买 nike

MySQL中,我们可以查询information_schema.tables表,得到data_lengthtable_rows等有用信息>

select
data_length
, table_rows
from
information_schema.tables
where
table_schema='some_db'
and table_name='some_table';

+-------------+------------+
| data_length | table_rows |
+-------------+------------+
| 8368 | 198 |
+-------------+------------+
1 row in set (0.01 sec)

SparkSQL/Hive 是否有等效的机制?

我可以使用 SparkSQL 或像 HiveMetaStoreClient 这样的程序 API (java API org.apache.hadoop.hive.metastore.HiveMetaStoreClient) .对于后者,我阅读了 API 文档 ( here ),但找不到任何与表行号和大小相关的方法。

最佳答案

元信息没有一个命令。而是有一组 commands , 你可以使用

描述表/ View /列

desc [formatted|extended] schema_name.table_name;

show table extended like part_table;
SHOW TBLPROPERTIES tblname("foo");

显示列统计信息(Hive 0.14.0 及更高版本)

DESCRIBE FORMATTED [db_name.]table_name column_name;
DESCRIBE FORMATTED [db_name.]table_name column_name PARTITION (partition_spec);

关于apache-spark - SparkSQL/配置单元 : equivalent of MySQL's `information_schema.table.{data_length, table_rows}` ?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/49203014/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com