gpt4 book ai didi

hadoop - 如何将50GB RDBMS数据移入hadoop并进行处理?使用hadoop处理50GB数据的最低硬件要求是什么?

转载 作者:行者123 更新时间:2023-12-02 20:25:59 26 4
gpt4 key购买 nike

如何将50GB RDBMS数据移入hadoop并进行处理?
使用hadoop处理50GB数据的最低硬件要求是什么?

最佳答案

您可以使用Apache Scoop将数据从RDBMS导入Hadoop。
关于最低硬件-这取决于要维护和在Hadoop集群中处理的存储以及将要运行的工作负载的类型。

有关确定Hadoop群集大小的一般建议,您可以引用here和一些近似的示例大小计算here

关于hadoop - 如何将50GB RDBMS数据移入hadoop并进行处理?使用hadoop处理50GB数据的最低硬件要求是什么?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/56754551/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com