gpt4 book ai didi

java - 文本填充中的JUNK字符,用于HADOOP mapreduce中的外语

转载 作者:行者123 更新时间:2023-12-02 21:04:02 25 4
gpt4 key购买 nike

我在应用程序中必须读取HBase并将其写入文本格式的文件中。
一切正常,但客户端要求它们必须具有UTF-8-BOM编码格式的文件。
我没有明确提到任何编码格式,默认情况下为UTF-8格式。

无论如何,是否要以UTF-8-BOM格式写入文件。

请考虑我正在mapreduce中做所有这些事情。

我曾尝试对驱动程序代码进行以下更改,但随后它也以UTF-8格式出现。

hbaseConf.set("mapreduce.child.java.opts", "-Xmx6553m -Dfile.encoding=UTF-8-BOM"); 

提前致谢 ..

最佳答案

无需在配置中提及额外的编码。
我已经通过在第一行添加“\ uFEFF”解决了它,对我来说也很好。在输出文件中也没有多余的字符。现在一切都很好

关于java - 文本填充中的JUNK字符,用于HADOOP mapreduce中的外语,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/42477759/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com