作者热门文章
- android - RelativeLayout 背景可绘制重叠内容
- android - 如何链接 cpufeatures lib 以获取 native android 库?
- java - OnItemClickListener 不起作用,但 OnLongItemClickListener 在自定义 ListView 中起作用
- java - Android 文件转字符串
我正在使用 hadoop MapReduce 处理大量数据。问题是,损坏的文件偶尔会导致 Map 任务抛出 Java 堆空间错误或类似的错误。
如果可能的话,最好丢弃 map task 正在做的任何事情,杀死它,然后继续工作,不要在意丢失的数据。我不希望整个 M/R 工作因此而失败。
这在 hadoop 中可行吗?如何实现?
最佳答案
您可以修改 mapreduce.max.map.failures.percent
参数。默认值为 0。增加此参数将允许一定比例的 map 任务失败而不会使作业失败。
您可以在 mapred-site.xml 中设置此参数(将应用于所有作业),或逐个作业设置(可能更安全)。
关于java - Hadoop:你能默默丢弃一个失败的 map task 吗?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/21027366/
我是一名优秀的程序员,十分优秀!