gpt4 book ai didi

hadoop - 亚马逊电子病历 : Configuring storage on data nodes

转载 作者:可可西里 更新时间:2023-11-01 14:25:48 26 4
gpt4 key购买 nike

我使用的是 Amazon EMR,我能够很好地运行大多数作业。当我开始在 EMR 集群中加载和生成更多数据时,我遇到了问题。集群存储空间不足。

每个数据节点都是一个 c1.medium 实例。根据链接herehere每个数据节点应配备 350GB 的实例存储。通过 ElasticMapReduce Slave 安全组,我已经能够在我的 AWS 控制台中验证 c1.medium 数据节点正在运行并且是实例存储。

当我在名称节点上运行 hadoop dfsadmin -report 时,每个数据节点都有大约 10GB 的存储空间。这通过运行 df -h 进一步验证

hadoop@domU-xx-xx-xx-xx-xx:~$ df -h
Filesystem Size Used Avail Use% Mounted on
/dev/sda1 9.9G 2.6G 6.8G 28% /
tmpfs 859M 0 859M 0% /lib/init/rw
udev 10M 52K 10M 1% /dev
tmpfs 859M 4.0K 859M 1% /dev/shm

如何配置我的数据节点以使用完整的 350GB 存储空间启动?有没有办法使用引导操作来做到这一点?

最佳答案

经过更多研究并在 AWS 论坛上发帖后,我得到了一个解决方案,尽管我没有完全了解幕后发生的事情。如果可以的话,我想我会发布这个作为答案。

事实证明,AMI 2.0 版中存在错误,这当然是我尝试使用的版本。 (我已经切换到 2.0,因为我希望 hadoop 0.20 成为默认值)AMI 版本 2.0 中的错误阻止了在 32 位实例上安装实例存储,这就是 c1.mediums 启动的原因。

通过在 CLI 工具上指定 AMI 版本应使用“最新”,问题得到解决,每个 c1.medium 都以适当的 350GB 存储空间启动。

例如

./elastic-mapreduce --create --name "Job" --ami-version "latest" --other-options

可以找到有关使用 AMI 和“最新”的更多信息 here .当前“最新”设置为 AMI 2.0.4。 AMI 2.0.5 是最新版本,但看起来仍然存在一些问题。

关于hadoop - 亚马逊电子病历 : Configuring storage on data nodes,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/10856190/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com