gpt4 book ai didi

hadoop - 提交后Spark如何获取输入

转载 作者:可可西里 更新时间:2023-11-01 14:48:38 26 4
gpt4 key购买 nike

我正在设计一个应用程序,它需要非常快的响应,并且需要从 hadoop 文件系统中检索和处理大量数据 (>40G),给定一个输入(命令)。

我在想,有没有可能用spark在分布式内存中抓到这么大的数据量,让应用程序一直运行。如果我给应用程序一个命令,它就可以开始根据输入处理数据。

我觉得抓这么大的数据不是问题。但是,我怎样才能让应用程序运行并接受输入呢?

据我所知,在“spark-submit”命令之后什么也做不了...

最佳答案

你可以试试spark job serverNamed Objects在分布式内存中缓存数据集,并在各种输入命令中使用它。

关于hadoop - 提交后Spark如何获取输入,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/40390913/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com