- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我在Cloudera中有一个Hadoop集群,具有4个节点,1个主节点和3个从属节点,复制因子为3
在几天之内,我的集群会无缘无故地变大,我不执行任何作业,并且设备上剩余的空间在几分钟内变小,然后我删除了一些文件并更改了一些内容,我的hadoop master和datanode上的日志。
日志文件的一部分。
Hadoop主节点
2015-07-17 09:30:49,637 INFO FSNamesystem.audit: allowed=true ugi=hdfs (auth:SIMPLE) ip=/172.20.1.45 cmd=listCachePools src=null dst=null perm=null proto=rpc
2015-07-17 09:30:49,649 INFO FSNamesystem.audit: allowed=true ugi=hdfs (auth:SIMPLE) ip=/172.20.1.45 cmd=create src=/tmp/.cloudera_health_monitoring_canary_files/.canary_file_2015_07_17-09_30_49 dst=null perm=hdfs:supergroup:rw-rw-rw- proto=rpc
2015-07-17 09:30:49,684 INFO FSNamesystem.audit: allowed=true ugi=hdfs (auth:SIMPLE) ip=/172.20.1.45 cmd=open src=/tmp/.cloudera_health_monitoring_canary_files/.canary_file_2015_07_17-09_30_49 dst=null perm=null proto=rpc
2015-07-17 09:30:49,699 INFO FSNamesystem.audit: allowed=true ugi=hdfs (auth:SIMPLE) ip=/172.20.1.45 cmd=delete src=/tmp/.cloudera_health_monitoring_canary_files/.canary_file_2015_07_17-09_30_49 dst=null perm=null proto=rpc
2015-07-17 09:30:49,663 INFO org.apache.hadoop.hdfs.server.datanode.DataNode: Receiving BP-634864778-172.20.1.45-1399358938139:blk_1074658739_919097 src: /172.20.1.48:59941 dest: /172.20.1.46:50010
2015-07-17 09:30:49,669 INFO org.apache.hadoop.hdfs.server.datanode.DataNode.clienttrace: src: /172.20.1.48:59941, dest: /172.20.1.46:50010, bytes: 56, op: HDFS_WRITE, cliID: DFSClient_NONMAPREDUCE_-824197314_132, offset: 0, srvID: aa5e5f0e-4198-4df5-8dfa-6e7c57e6307d, blockid: BP-634864778-172.20.1.45-1399358938139:blk_1074658739_919097, duration: 4771606
2015-07-17 09:30:49,669 INFO org.apache.hadoop.hdfs.server.datanode.DataNode: PacketResponder: BP-634864778-172.20.1.45-1399358938139:blk_1074658739_919097, type=LAST_IN_PIPELINE, downstreams=0:[] terminating
2015-07-17 09:30:51,406 INFO org.apache.hadoop.hdfs.server.datanode.fsdataset.impl.FsDatasetAsyncDiskService: Scheduling blk_1074658739_919097 file /dfs/dn/current/BP-634864778-172.20.1.45-1399358938139/current/finalized/subdir13/subdir253/blk_1074658739 for deletion
2015-07-17 09:30:51,407 INFO org.apache.hadoop.hdfs.server.datanode.fsdataset.impl.FsDatasetAsyncDiskService: Deleted BP-634864778-172.20.1.45-1399358938139 blk_1074658739_919097 file /dfs/dn/current/BP-634864778-172.20.1.45-1399358938139/current/finalized/subdir13/subdir253/blk_1074658739
pl.FsDatasetAsyncDiskService: Deleted BP-634864778-172.20.1.45-1399358938139 blk_1074658740_919098 file /dfs/dn/current/BP-634864778-172.20.1.45-1399358938139/current/finalized/subdir13/subdir253/blk_1074658740
2015-07-17 09:32:54,684 INFO org.apache.hadoop.hdfs.server.datanode.DataNode: Receiving BP-634864778-172.20.1.45-1399358938139:blk_1074658741_919099 src: /172.20.1.48:33789 dest: /172.20.1.47:50010
2015-07-17 09:32:54,725 INFO org.apache.hadoop.hdfs.server.datanode.DataNode.clienttrace: src: /172.20.1.48:33789, dest: /172.20.1.47:50010, bytes: 56, op: HDFS_WRITE, cliID: DFSClient_NONMAPREDUCE_705538126_132, offset: 0, srvID: bff71ff1-db18-438a-b2ba-4731fa36d44e, blockid: BP-634864778-172.20.1.45-1399358938139:blk_1074658741_919099, duration: 39309294
2015-07-17 09:32:54,725 INFO org.apache.hadoop.hdfs.server.datanode.DataNode: PacketResponder: BP-634864778-172.20.1.45-1399358938139:blk_1074658741_919099, type=LAST_IN_PIPELINE, downstreams=0:[] terminating
2015-07-17 09:32:55,909 ERROR org.apache.hadoop.hdfs.server.datanode.DataNode: RECEIVED SIGNAL 15: SIGTERM
2015-07-17 09:32:55,911 INFO org.apache.hadoop.hdfs.server.datanode.DataNode: SHUTDOWN_MSG:
最佳答案
我在运行Cloudera Manager 5.4和CDH5.4的PROD集群中添加了一些数据节点。
每个节点的配置如下:
差异文件系统上分别装有12个磁盘,差异磁盘上有/var
和/tmp
和OS。
添加数据节点后,每个卷将立即充满46.9 gb数据(几乎是每个磁盘容量的5%)。这是在运行rebalancer之前。
Each of disk is filled as below:
[root@data14-prod ~]# du -sh /dfs1/*
8.6G /dfs1/dfs
16K /dfs1/lost+found
331M /dfs1/yarn
This usage doesn't account for missing 46gb space.
Swap space is set to 19gb from OS disk.
Output of df -h.
[root@data14-prod ~]# df -h
Filesystem Size Used Avail Use% Mounted on
/dev/mapper/vg_data14prod-lv_root
147G 11G 129G 8% /
tmpfs 63G 32K 63G 1% /dev/shm
/dev/sda1 477M 78M 374M 18% /boot
/dev/sdb1 917G 9.0G 861G 2% /dfs1
/dev/sdc1 917G 11G 860G 2% /dfs2
/dev/sdd1 917G 8.2G 862G 1% /dfs3
/dev/sde1 917G 9.6G 861G 2% /dfs4
/dev/sdf1 917G 8.8G 861G 2% /dfs5
/dev/sdg1 917G 8.8G 861G 2% /dfs6
/dev/sdh1 917G 11G 860G 2% /dfs7
/dev/sdi1 917G 9.0G 861G 2% /dfs8
/dev/sdj1 917G 8.2G 862G 1% /dfs9
/dev/sdk1 917G 9.2G 861G 2% /dfs10
/dev/sdl1 917G 8.4G 862G 1% /dfs11
/dev/sdm1 917G 7.5G 863G 1% /dfs12
/dev/mapper/vg_data14prod-lv_tmp
59G 54M 56G 1% /tmp
/dev/mapper/vg_data14prod-lv_var
50G 765M 46G 2% /var
cm_processes 63G 756K 63G 1% /var/run/cloudera-scm-agent/process
Cloudera config:
Disk Mount Point Usage
/dev/sdl1 /dfs11 55.7 GiB/916.3 GiB
/dev/sdk1 /dfs10 53.9 GiB/916.3 GiB
/dev/sdm1 /dfs12 54.3 GiB/916.3 GiB
/dev/mapper/vg_data08prod-lv_var /var 3.2 GiB/49.1 GiB
/dev/mapper/vg_data08prod-lv_tmp /tmp 3.1 GiB/58.9 GiB
/dev/sda1 /boot 102.9 MiB/476.2 MiB
/dev/sdg1 /dfs6 54.7 GiB/916.3 GiB
cm_processes /var/run/cloudera-scm-agent/process 756.0 KiB/63.0 GiB
/dev/mapper/vg_data08prod-lv_root / 18.1 GiB/146.2 GiB
/dev/sdj1 /dfs9 54.6 GiB/916.3 GiB
/dev/sdi1 /dfs8 53.8 GiB/916.3 GiB
/dev/sdb1 /dfs1 56.3 GiB/916.3 GiB
/dev/sdd1 /dfs3 55.2 GiB/916.3 GiB
/dev/sdc1 /dfs2 55.6 GiB/916.3 GiB
/dev/sdf1 /dfs5 55.4 GiB/916.3 GiB
/dev/sde1 /dfs4 55.0 GiB/916.3 GiB
/dev/sdh1 /dfs7 55.0 GiB/916.3 Gi[output of df -h and du -h /dfs1/[File system as seen on cloudera][1]B
tmpfs /dev/shm 16.0 KiB/63.0 GiB
Any ideas? where is my missing 46gb on each disk.
This is a huge issue because, combining all 12 disks and 16 datanodes which i added resulted in loss of 9TB disk space unaccounted for.
[Cloudera config]: http://i.stack.imgur.com/XQcdg.jpg
关于hadoop - Cloudera Hadoop磁盘空间和hdfs有问题吗?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/31471779/
是否可以在 impala 中同时执行多个查询?如果是,impala 是如何处理的? 最佳答案 我当然会自己做一些测试,但我无法执行多个查询:我正在使用 Impala 连接,并从 .sql 文件中读取查
我一直在寻找使用 Hortonworks 2.1 安装可用的 Storm,但为了避免在 Cloudera 安装(其中包含 Spark)之外安装 Hortonworks,我试图找到一种在 Clouder
正常情况下,我可以show partitions 在 hive 中。但是当它是 Parquet 表时,hive 无法理解它。我可以转到 hdfs 并检查目录结构,但这并不理想。有没有更好的方法来做到这
我想知道用于停止和启动 cloudera CDH5.2 集群的命令行。 原因,我正在编写一个自动化脚本来运行一些基准测试,并希望在开始每个基准测试之前停止和启动集群。 我已经看到停止 CDH 集群并不
由于嵌入式 PostgreSQL 数据库的问题,我无法访问 Cloudera Manager UI。 Web UI 向我显示: HTTP ERROR 500 Problem accessing /cm
我最近下载了 Cloudera CDH 5.3,现在我需要访问 HUE Web UI 门户。当我提供属于 Cloudera admin/admin 的默认用户名和密码时,它不起作用。我现在无法登录 H
我有两台装有 CentOS 6.5 的 PC client86-101.aihs.net 80.94.86.101 client86-103.aihs.net 80.94.86.103 clouder
当我显示表格时,我在 Impala 中看到一个表格“测试”; 我想复制“test”表,使其完全相同,但命名为“test_copy”。我可以执行 impala 查询来执行此操作吗?如果没有,我该怎么做?
如何在不使用 Cloudera 管理器的情况下在 100 节点集群上安装 Cloudera CDH?在集群中的每个节点上手动安装和配置 CDH 是一项艰巨的任务。使用哪些工具和技术来自动化生产中的任务
我启动了cloudera-scm-agent,但它失败了。我看到来自 /opt/cm-5.7.0/log/cloudera-scm-agent 的日志。它说 /opt/cm-5.7.0/lib64/c
我正在使用 ubuntu 12.04 64 位,我成功地安装并运行了单节点示例 hadoop 程序。 我在我的 ubuntu 上安装 cloudera 管理器时出现以下错误 Refreshing re
我已经关注了这里的博客(如下所述)并下载了包裹并按照要求放置。请告诉我是否有人已安装以及步骤。 (https://www.cloudera.com/documentation/spark2/lates
我正在尝试使用 Cloudera Manager 3.7.x 在具有 RHEL 5.5 的集群上安装 CDH3U5。但是由于以下错误,安装失败 - Error Downloading Packages
我正在尝试在 Ubuntu 12.04 LTS(64 位)中使用 Cloudera Manager 安装 CDH5。我正在按照 Cloudera link 中提到的步骤进行操作.我无法为安装 CDH5
我正在使用 Cloudera Quickstart VM 5.3.0(在 Windows 7 上的 Virtual Box 4.3 中运行)并且我想学习 Spark(在 YARN 上)。 我启动了 C
Cloudera 声称拥有快速启动方法。我注意到这对我不起作用。 当我调用 Spark-shell 时,我得到: ... WARN metastore.ObjectStore: Version inf
我有cloudera 5.7,我也有Cloudera Manager。 在目录/etc/hadoop下,我看到了三个子目录。 /etc/hadoop/conf /etc/hadoop/conf.clo
我是 Docker 和 Hadoop 系统的新手。我已经在 Ubuntu 16.04 中安装了 Docker,并在一个新的 Docker 容器中运行来自 Cloudera 的 Hadoop 镜像。但是
我必须区分 Cloudera 包裹过程和编写 cooking 书或厨师的食谱以在集群中安装包。 因此,我正在寻找 Parcel 与 Chef 之间的优势和劣势,反之亦然。 最佳答案 如果您使用的是 C
我对 impala 中的数据局部性有疑问,假设我有 10 个数据节点的集群(每个数据节点上都有 impalad),如果我在 impala 中执行查询 SELECT * FROM big_table w
我是一名优秀的程序员,十分优秀!