gpt4 book ai didi

apache-spark - 我可以将es.batch.write.retry.count设置为零值吗

转载 作者:行者123 更新时间:2023-12-02 23:12:13 25 4
gpt4 key购买 nike

如果将数据写入ES时发生任何异常,我只是想停止spark工作。
es.batch.write.retry.count有一个配置,其默认值为3。
可以将es.batch.write.retry.count = 0设置为有效,以便如果根据我的要求出现问题而将spark数据帧写入停在ES处吗?

最佳答案

es.batch.write.retry.count的配置仅处理在放弃放弃并移至下一个批次之前尝试为每个批次写入 flex 文件的时间,它不会影响您的 Spark 作业。
您可以执行的解决方法是设置spark.task.maxFailures = 1,但这将影响您的整个工作,而不仅是对Elasticsearch的写入。

您可能会注意到,由于写入 flex 不是事务性的,因此,如果写入 flex 的一项任务失败,则并不意味着您的某些数据已被写入 flex 。

我不知道这里的用例是什么,但是如果要确保将所有数据都写入elasticsearch,则应进行_count查询,并在写入后检查它是否等于df.count()。正在写入新索引)。

关于apache-spark - 我可以将es.batch.write.retry.count设置为零值吗,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/59099203/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com