- android - RelativeLayout 背景可绘制重叠内容
- android - 如何链接 cpufeatures lib 以获取 native android 库?
- java - OnItemClickListener 不起作用,但 OnLongItemClickListener 在自定义 ListView 中起作用
- java - Android 文件转字符串
所以我正在使用 org.apache.hadoop.mapreduce.lib.output
包中的 MultipleOutputs
。
我有一个 reducer,它正在连接 2 个数据源并发出 3 个不同的输出。
调用了 55 个 reduce 任务,平均每个任务需要大约 6 分钟来发出数据。有大约 11 分钟的异常值。
所以我观察到,如果我评论实际输出发生的部分,即调用 mos.write()
(多输出),那么平均时间减少到几秒,整个工作完成大约 2 分钟。
我确实有很多数据要发送(大约 40-50 GB)。
在考虑和不考虑压缩的情况下,我可以做些什么来加快速度。
详细信息:我正在使用 TextOutputFormat
并提供一个 hdfs 路径/uri。
进一步说明:
我的 reducer 有少量输入数据,但是 reducer 正在执行 reduce side join,因此会发出大量数据。由于离群 reducer 大约需要 11 分钟,减少 reducer 的数量会增加这个时间,从而增加我工作的总时间,并且不会解决我的目的。
reducer 的输入来自 2 个映射器。映射器 1 -> 发出大约 10,000 条记录。 ( key ID)映射器 2 -> 发出大约 1500 万条记录。 (Key Id, Key Id2, Key Id3)
在 reducer 中,我得到属于 Key Id 的所有内容,按 Key Id、KeyId2 和 KeyId3 排序。
所以我知道我有一个像这样的迭代器:Mapper1输出,然后Mapper2输出。
在这里,我将 Mapper1 的输出存储在 ArrayList
中,并开始流式传输 Mapper2 的输出。
对于我做的每一个 Mapper2 记录,一个 mos.write(....)
我有条件地将此记录的一部分存储在内存中(在 HashSet
中)每次 KeyId2 更改时,我都会执行额外的 mos.write(...)
在我的 reducer 的关闭方法中,如果我在条件步骤中存储了任何东西,我就会发出。所以第三个 mos.write(...)
我已经看完了文章http://blog.cloudera.com/blog/2009/12/7-tips-for-improving-mapreduce-performance/如前所述:
提示 1:正确配置我的集群超出了我的控制范围。
技巧 2:使用 LZO 压缩 - 或一般压缩。我正在尝试的东西。
技巧 3:调整映射器和缩减器的数量 - 我的映射器完成得非常快(以秒为单位)可能是因为它们几乎是恒等映射器。 Reducers 需要一些时间,如上所述(这是我尝试减少的时间)所以增加 reducers 的数量可能会帮助我 - 但随后会出现资源争用,一些 reducers 将不得不等待。这对我来说更像是一种实验性的尝试和错误。
Tip4:写一个组合器。不适用于我的情况(减少侧连接)
Tip5:使用 apt writable - 我现在需要使用 Text。所有这 3 个输出都进入目录,这些目录上有一个配置单元模式。稍后当我想出如何从多个输出发出 ParquetFormat 文件时,我可能会更改此方法和表存储方法。
技巧 6:重用可写对象。好的,这是我到目前为止还没有考虑过的事情,但我仍然相信它的磁盘写入需要时间而不是处理或 java 堆。但无论如何,我会再试一次。
Tip7:使用穷人的分析。有点已经这样做了,并且发现它实际上花费了大部分时间的 mos.write 步骤。
最佳答案
做
1.减少 reducer 的数量。
优化的 reducer 数量(对于一般的 ETL 操作)是 1 个 reducer 有大约 1GB 的数据。这里您的输入数据(以 GB 为单位)本身少于 reducer 的数量。
2. 可以做代码优化。分享代码,否则引用http://blog.cloudera.com/blog/2009/12/7-tips-for-improving-mapreduce-performance/对其进行优化。
3. 如果这没有帮助,请了解您的数据。数据可能有偏差。如果您不知道什么是倾斜的, pig 中的倾斜连接会有所帮助。
关于Hadoop - Reducers 花费大量时间写入数据(多个输出),我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/27447632/
我有这个代码 var myChart = new FusionCharts("../themes/clean/charts/hbullet.swf", "myChartId", "400", "75
既然写入是立即进行的(复制到内核缓冲区并返回),那么使用 io_submit 进行写入有什么好处? 事实上,它 (aio/io_submit) 看起来更糟,因为您必须在堆上分配写入缓冲区并且不能使用基
我正在使用 mootool 的 Request.JSON 从 Twitter 检索推文。收到它后,我将写入目标 div 的 .innerHTML 属性。当我在本地将其作为文件进行测试时,即 file:
最终,我想将 Vertica DB 中的数据抓取到 Spark 中,训练机器学习模型,进行预测,并将这些预测存储到另一个 Vertica DB 中。 当前的问题是确定流程最后部分的瓶颈:将 Spark
我使用 WEKA 库编写了一个 Java 程序, 训练分类算法 使用经过训练的算法对未标记的数据集运行预测 将结果写入 .csv 文件 问题在于它当前写出离散分类结果(即算法猜测一行属于哪个类别)。我
背景 - 我正在考虑使用 clickonce 通过 clickonce(通过网站)部署 WinForms 应用程序。相对简单的应用程序的要素是: - 它是一个可执行文件和一个数据库文件(sqlite)
是否有更好的解决方案来快速初始化 C 数组(在堆上创建)?就像我们使用大括号一样 double** matrix_multiply(const double **l_matrix, const dou
我正在读取 JSON 文件,取出值并进行一些更改。 基本上我向数组添加了一些值。之后我想将其写回到文件中。当我将 JSONArray 写回文件时,会被写入字符串而不是 JSONArray 对象。怎样才
我为两个应用程序使用嵌入式数据库,其中一个是服务器,另一个是客户端。客户端应用程序。可以向服务器端发送获取数据请求以检索数据并显示在表格(或其他)中。问题是这样的:如何将获取的数据保存(写入)到页面文
是否有更好的解决方案来快速初始化 C 数组(在堆上创建)?就像我们使用大括号一样 double** matrix_multiply(const double **l_matrix, const dou
从问题得出问题:找到所有 result = new ArrayList(); for (int i = 2; i >(i%8) & 0x1) == 0) { result.add(i
由于某种原因,它没有写入 CSV。谁能明白为什么它不写吗? def main(): list_of_emails = read_email_csv() #read input file, cr
关闭。 这个问题是 not reproducible or was caused by typos 。它目前不接受答案。 这个问题是由于错别字或无法再重现的问题引起的。虽然类似的问题可能在这里出现,
我目前正在开发一个保存和加载程序,但我无法获得正确的结果。 编写程序: #include #include #define FILENAME "Save" #define COUNT 6 type
import java.io.*; public class Main2 { public static void main(String[] args) throws Exception {
我需要使用预定义位置字符串“Office”从所有日历中检索所有 iOS 事件,然后将结果写入 NSLog 和 UITextView。 到目前为止,这是我的代码: #import "ViewCo
我正在尝试将 BOOL 值写入 PFInstallation 中的列,但会不停地崩溃: - (IBAction)pushSwitch:(id)sender { NSUserDefaults *push
我以前在学校学过一些简单的数据库编程,但现在我正在尝试学习最佳实践,因为我正在编写更复杂的应用程序。写入 MySQL 数据库并不难,但我想知道让分布式应用程序写入 Amazon EC2 上的远程数据库
是否可以写回到ResourceBundle?目前我正在使用 ResourceBundle 来存储信息,在运行时使用以下内容读取信息 while(ResourceBundle.getBundle("bu
关闭。这个问题是not reproducible or was caused by typos .它目前不接受答案。 这个问题是由于错别字或无法再重现的问题引起的。虽然类似的问题可能是on-topi
我是一名优秀的程序员,十分优秀!