- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
查看第一步中的日志:
java.io.IOException: OS command error exit with return code: 127, error message:
Logging initialized using configuration in jar:file:/home/jefferson/Developer/apache-hive-1.2.2/lib/hive-common-1.2.2.jar!/hive-log4j.properties
SLF4J: Class path contains multiple SLF4J bindings.
SLF4J: Found binding in [jar:file:/home/jefferson/Developer/hbase-1.4.9/lib/slf4j-log4j12-1.7.10.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: Found binding in [jar:file:/home/jefferson/Developer/hadoop-2.7.7/share/hadoop/common/lib/slf4j-log4j12-1.7.10.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation.
SLF4J: Actual binding is of type [org.slf4j.impl.Log4jLoggerFactory]
OK
Time taken: 0.634 seconds
OK
Time taken: 0.06 seconds
OK
Time taken: 0.531 seconds
OK
Time taken: 0.163 seconds
Query ID = root_20190624182158_03e9235b-de36-4498-b977-f5d343c4807c
Total jobs = 1
SLF4J: Class path contains multiple SLF4J bindings.
SLF4J: Found binding in [jar:file:/home/jefferson/Developer/hbase-1.4.9/lib/slf4j-log4j12-1.7.10.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: Found binding in [jar:file:/home/jefferson/Developer/hadoop-2.7.7/share/hadoop/common/lib/slf4j-log4j12-1.7.10.jar!/org/slf4j/impl/StaticLoggerBinder.class]
SLF4J: See http://www.slf4j.org/codes.html#multiple_bindings for an explanation.
SLF4J: Actual binding is of type [org.slf4j.impl.Log4jLoggerFactory]
Execution log at: /tmp/root/root_20190624182158_03e9235b-de36-4498-b977-f5d343c4807c.log
2019-06-24 18:22:01 Starting to launch local task to process map join; maximum memory = 3817865216
2019-06-24 18:22:01 Dump the side-table for tag: 1 with group count: 244 into file: file:/tmp/root/fce0b7ff-ed96-4bc6-bb85-5935076c99aa/hive_2019-06-24_18-21-58_050_2107942375316508204-1/-local-10007/HashTable-Stage-14/MapJoin-mapfile01--.hashtable
2019-06-24 18:22:02 Uploaded 1 File to: file:/tmp/root/fce0b7ff-ed96-4bc6-bb85-5935076c99aa/hive_2019-06-24_18-21-58_050_2107942375316508204-1/-local-10007/HashTable-Stage-14/MapJoin-mapfile01--.hashtable (5163 bytes)
2019-06-24 18:22:02 Dump the side-table for tag: 1 with group count: 244 into file: file:/tmp/root/fce0b7ff-ed96-4bc6-bb85-5935076c99aa/hive_2019-06-24_18-21-58_050_2107942375316508204-1/-local-10007/HashTable-Stage-14/MapJoin-mapfile11--.hashtable
2019-06-24 18:22:02 Uploaded 1 File to: file:/tmp/root/fce0b7ff-ed96-4bc6-bb85-5935076c99aa/hive_2019-06-24_18-21-58_050_2107942375316508204-1/-local-10007/HashTable-Stage-14/MapJoin-mapfile11--.hashtable (5163 bytes)
2019-06-24 18:22:02 Dump the side-table for tag: 1 with group count: 10000 into file: file:/tmp/root/fce0b7ff-ed96-4bc6-bb85-5935076c99aa/hive_2019-06-24_18-21-58_050_2107942375316508204-1/-local-10007/HashTable-Stage-14/MapJoin-mapfile21--.hashtable
2019-06-24 18:22:02 Uploaded 1 File to: file:/tmp/root/fce0b7ff-ed96-4bc6-bb85-5935076c99aa/hive_2019-06-24_18-21-58_050_2107942375316508204-1/-local-10007/HashTable-Stage-14/MapJoin-mapfile21--.hashtable (251480 bytes)
2019-06-24 18:22:02 Dump the side-table for tag: 1 with group count: 10000 into file: file:/tmp/root/fce0b7ff-ed96-4bc6-bb85-5935076c99aa/hive_2019-06-24_18-21-58_050_2107942375316508204-1/-local-10007/HashTable-Stage-14/MapJoin-mapfile31--.hashtable
2019-06-24 18:22:02 Uploaded 1 File to: file:/tmp/root/fce0b7ff-ed96-4bc6-bb85-5935076c99aa/hive_2019-06-24_18-21-58_050_2107942375316508204-1/-local-10007/HashTable-Stage-14/MapJoin-mapfile31--.hashtable (251480 bytes)
2019-06-24 18:22:02 Dump the side-table for tag: 1 with group count: 144 into file: file:/tmp/root/fce0b7ff-ed96-4bc6-bb85-5935076c99aa/hive_2019-06-24_18-21-58_050_2107942375316508204-1/-local-10007/HashTable-Stage-14/MapJoin-mapfile41--.hashtable
2019-06-24 18:22:02 Uploaded 1 File to: file:/tmp/root/fce0b7ff-ed96-4bc6-bb85-5935076c99aa/hive_2019-06-24_18-21-58_050_2107942375316508204-1/-local-10007/HashTable-Stage-14/MapJoin-mapfile41--.hashtable (3348 bytes)
2019-06-24 18:22:02 Dump the side-table for tag: 1 with group count: 0 into file: file:/tmp/root/fce0b7ff-ed96-4bc6-bb85-5935076c99aa/hive_2019-06-24_18-21-58_050_2107942375316508204-1/-local-10007/HashTable-Stage-14/MapJoin-mapfile51--.hashtable
2019-06-24 18:22:02 Uploaded 1 File to: file:/tmp/root/fce0b7ff-ed96-4bc6-bb85-5935076c99aa/hive_2019-06-24_18-21-58_050_2107942375316508204-1/-local-10007/HashTable-Stage-14/MapJoin-mapfile51--.hashtable (260 bytes)
2019-06-24 18:22:02 End of local task; Time Taken: 0.944 sec.
Execution completed successfully
MapredLocal task succeeded
Launching Job 1 out of 1
Number of reduce tasks is set to 0 since there's no reduce operator
Job running in-process (local Hadoop)
2019-06-24 18:22:04,049 Stage-14 map = 100%, reduce = 0%, Cumulative CPU 1.84 sec
MapReduce Total cumulative CPU time: 1 seconds 840 msec
Ended Job = job_local1579904003_0001
Loading data to table default.kylin_intermediate_relatorio_por_paises_a1675df9_2dfc_3d8c_cd70_245f440477cb
Table default.kylin_intermediate_relatorio_por_paises_a1675df9_2dfc_3d8c_cd70_245f440477cb stats: [numFiles=0, numRows=0, totalSize=0, rawDataSize=0]
MapReduce Jobs Launched:
Stage-Stage-14: Cumulative CPU: 1.84 sec HDFS Read: 798009 HDFS Write: 242 SUCCESS
Total MapReduce CPU Time Spent: 1 seconds 840 msec
OK
Time taken: 6.207 seconds
/bin/bash: line 32: --hiveconf: command not found
The command is:
hive -e "USE default;
DROP TABLE IF EXISTS kylin_intermediate_relatorio_por_paises_a1675df9_2dfc_3d8c_cd70_245f440477cb;
CREATE EXTERNAL TABLE IF NOT EXISTS kylin_intermediate_relatorio_por_paises_a1675df9_2dfc_3d8c_cd70_245f440477cb
(
BUYER_ACCOUNT_ACCOUNT_COUNTRY string
,KYLIN_SALES_PRICE decimal(19,4)
,KYLIN_SALES_ITEM_COUNT bigint
)
STORED AS SEQUENCEFILE
LOCATION 'hdfs://localhost:8020/home/jefferson/kylin/kylin_metadata/kylin-47e822a4-9f9f-c19f-8ede-c125052e2fb4/kylin_intermediate_relatorio_por_paises_a1675df9_2dfc_3d8c_cd70_245f440477cb';
ALTER TABLE kylin_intermediate_relatorio_por_paises_a1675df9_2dfc_3d8c_cd70_245f440477cb SET TBLPROPERTIES('auto.purge'='true');
INSERT OVERWRITE TABLE \`kylin_intermediate_relatorio_por_paises_a1675df9_2dfc_3d8c_cd70_245f440477cb\` SELECT
\`BUYER_ACCOUNT\`.\`ACCOUNT_COUNTRY\` as \`BUYER_ACCOUNT_ACCOUNT_COUNTRY\`
,\`KYLIN_SALES\`.\`PRICE\` as \`KYLIN_SALES_PRICE\`
,\`KYLIN_SALES\`.\`ITEM_COUNT\` as \`KYLIN_SALES_ITEM_COUNT\`
FROM \`DEFAULT\`.\`KYLIN_SALES\` as \`KYLIN_SALES\`
INNER JOIN \`DEFAULT\`.\`KYLIN_CAL_DT\` as \`KYLIN_CAL_DT\`
ON \`KYLIN_SALES\`.\`PART_DT\` = \`KYLIN_CAL_DT\`.\`CAL_DT\`
INNER JOIN \`DEFAULT\`.\`KYLIN_CATEGORY_GROUPINGS\` as \`KYLIN_CATEGORY_GROUPINGS\`
ON \`KYLIN_SALES\`.\`LEAF_CATEG_ID\` = \`KYLIN_CATEGORY_GROUPINGS\`.\`LEAF_CATEG_ID\` AND \`KYLIN_SALES\`.\`LSTG_SITE_ID\` = \`KYLIN_CATEGORY_GROUPINGS\`.\`SITE_ID\`
INNER JOIN \`DEFAULT\`.\`KYLIN_ACCOUNT\` as \`BUYER_ACCOUNT\`
ON \`KYLIN_SALES\`.\`BUYER_ID\` = \`BUYER_ACCOUNT\`.\`ACCOUNT_ID\`
INNER JOIN \`DEFAULT\`.\`KYLIN_ACCOUNT\` as \`SELLER_ACCOUNT\`
ON \`KYLIN_SALES\`.\`SELLER_ID\` = \`SELLER_ACCOUNT\`.\`ACCOUNT_ID\`
INNER JOIN \`DEFAULT\`.\`KYLIN_COUNTRY\` as \`BUYER_COUNTRY\`
ON \`BUYER_ACCOUNT\`.\`ACCOUNT_COUNTRY\` = \`BUYER_COUNTRY\`.\`COUNTRY\`
INNER JOIN \`DEFAULT\`.\`KYLIN_COUNTRY\` as \`SELLER_COUNTRY\`
ON \`SELLER_ACCOUNT\`.\`ACCOUNT_COUNTRY\` = \`SELLER_COUNTRY\`.\`COUNTRY\`
WHERE 1=1 AND (\`KYLIN_SALES\`.PART_DT >= '2019-06-24' AND \`KYLIN_SALES\`.PART_DT < '2019-06-24')
;
" --hiveconf hive.merge.mapredfiles=false --hiveconf hive.metastore.schema.verification=true --hiveconf hive.auto.convert.join=true --hiveconf dfs.replication=2 --hiveconf hive.exec.compress.output=true --hiveconf hive.auto.convert.join.noconditionaltask=true --hiveconf mapreduce.job.split.metainfo.maxsize=-1 --hiveconf javax.jdo.option.ConnectionURL=jdbc:derby:/home/jefferson/metastore_db;create=true --hiveconf hive.merge.mapfiles=false --hiveconf hive.auto.convert.join.noconditionaltask.size=100000000 --hiveconf hive.stats.autogather=true
at org.apache.kylin.common.util.CliCommandExecutor.execute(CliCommandExecutor.java:96)
at org.apache.kylin.source.hive.CreateFlatHiveTableStep.createFlatHiveTable(CreateFlatHiveTableStep.java:62)
at org.apache.kylin.source.hive.CreateFlatHiveTableStep.doWork(CreateFlatHiveTableStep.java:99)
at org.apache.kylin.job.execution.AbstractExecutable.execute(AbstractExecutable.java:166)
at org.apache.kylin.job.execution.DefaultChainedExecutable.doWork(DefaultChainedExecutable.java:71)
at org.apache.kylin.job.execution.AbstractExecutable.execute(AbstractExecutable.java:166)
at org.apache.kylin.job.impl.threadpool.DefaultScheduler$JobRunner.run(DefaultScheduler.java:114)
at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1149)
at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:624)
at java.lang.Thread.run(Thread.java:748)
最佳答案
在 Kylin 2.6 中,所有数据库、表和列名称必须为大写。将它们全部更改为大写,您的错误将被修复。
关于java - 我在 Apache Kylin 中构建 Cube 时遇到错误,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/56744343/
我正在尝试构建一个 Kylin Cube,它将为我获取 SmallInt 可为 null 的列 Col1 的平均值。我希望任何空值都不会计入此平均值。当我在 Hive 中处理我的表时,这正是我在应用
我正在尝试使用 Apache Kylin 构建我的第一个多维数据集,一切正常,直到我遇到错误的最后一步: java.lang.IllegalStateException: Can't get cube
我使用Snowflake作为我的ETL的DWH和Spark,但没有Hive表。 是否可以在不使用Hadoop生态系统的情况下使用 Apache Kylin ? 最佳答案 根据我所读的内容,这非常复杂。
嗨,我无法在apache kylin中使用数据透视功能,我是否必须启用任何属性,因为kylin文档说,kylin Web向导本身可以使用数据透视功能。 最佳答案 这个吉拉应该回答你的问题。 https
我正在尝试安装 apache kylin 1.5.4.1,我正在关注这个 URL: http://kylin.apache.org/docs15/install/index.html 在启动服务器时,
我正在尝试添加一个平均度量,但我无法在以下下拉列表的可用度量中找到它:如果我们从这个页面看第12页,这似乎是可能的https://www.slideshare.net/YangLi43/design-
Apache Kylin 看起来是一个很棒的工具,可以满足大量数据科学家的需求。这也是一个非常复杂的系统。我们正在开发一个内部解决方案,其目标完全相同,即具有低查询延迟的多维 OLAP 多维数据集。在
Ubuntu Kylin 14.10是一个新版本的具有中国特色的操作系统。新版本的操作系统新增了很多人性化的设计,小编为大家介绍一些相关的功能给各位对于Ubuntu Kylin不是很明白的地方。
我正在尝试构建麒麟多维数据集,但是我所有的麒麟多维数据集在同一阶段都失败了: #18 Step Name: Build Cube 我已经查看了应用程序日志: log4j:ERROR setFile(
我想知道是否有关于 Apache Kylin 安装没有任何沙箱(如 cloudera、hortonworks)支持的任何资源。我已经设法做到了以下几点: 安装 Hadoop 2.6 安装 hive 安
我最近遇到了 Apache Kylin ,并且很好奇它的用例是什么。据我所知,它似乎是一种旨在解决与超过 10+ 十亿行、聚合、缓存和查询来自其他来源(HBase、Hadoop、Hive)的数据相关的
在 apache kylin 发行版中,我只能看到哪些与 hbase1.x 兼容。我的 hbase 版本是 2.0 如果有人用 hbase 2.x 测试了 kylin 请发表评论。 感谢和问候拉胡尔
我想尝试 Apache Kylin 构建的 OLAP 多维数据集的 Jpa 实现。有没有我可以用于 Apache Kylin 的休眠方言? 最佳答案 据我所知,麒麟没有休眠方言。 Kylin 的 SQ
本文整理了Java中org.apache.kylin.storage.hbase.util.ZookeeperAclBuilder类的一些代码示例,展示了ZookeeperAclBuilder类的具体
我已经在Kylin上安装了MapR发行版,并且一切正常 罚款到一定程度。我运行了sample.sh脚本,现在有了 “learning_kylin”项目,然后我可以在多维数据集和 该工作报告成功完成了1
查看第一步中的日志: java.io.IOException: OS command error exit with return code: 127, error message: Logging
关闭。这个问题不符合Stack Overflow guidelines .它目前不接受答案。 想改进这个问题?将问题更新为 on-topic对于堆栈溢出。 5年前关闭。 Improve this qu
使用 kylin 1.5.4,当我构建立方体时,它在第 3 步失败,日志显示“没有工作计数器”。它也没有获取配置单元表的基数。当我创建一个模型或多维数据集时,它会抛出无法采取行动的错误,但是当我关闭
我只是想弄清楚我的 SampleCube 出了什么问题,但我不知道如何找到解决方案。首先,我使用的是 Cloudera,cdh 5.8.0,Hadoop 2.6.0。我有 Hive、HBase 等等。
前文已述,因为需要测试mysql的主从配置方案,所以要安装多个mysql。这次是在ubuntu kylin 14.10上安装多个mysql 5.7.14。 系统环境:ubuntu kylin 14
我是一名优秀的程序员,十分优秀!