- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我想按Hadoop中的列计算均值和标准差。
我简单地对MapReduce采用单次通过朴素算法。
我在多变量数据集455000x90和650000x120上进行了测试,并获得了更低,更多,然后处理器数量更多的加速。对于具有2个 Activity 内核的独立和伪分布式模式,对于455000x90,我的加速比为0.4 = 20秒/ 53秒。
为什么我的程序无效?有可能改善它吗?
映射器:
public class CalculateMeanAndSTDEVMapper extends
Mapper <LongWritable,
DoubleArrayWritable,
IntWritable,
DoubleArrayWritable> {
private int dataDimFrom;
private int dataDimTo;
private long samplesCount;
private int universeSize;
@Override
protected void setup(Context context) throws IOException {
Configuration conf = context.getConfiguration();
dataDimFrom = conf.getInt("dataDimFrom", 0);
dataDimTo = conf.getInt("dataDimTo", 0);
samplesCount = conf.getLong("samplesCount", 0);
universeSize = dataDimTo - dataDimFrom + 1;
}
@Override
public void map(
LongWritable key,
DoubleArrayWritable array,
Context context) throws IOException, InterruptedException {
DoubleWritable[] outArray = new DoubleWritable[universeSize*2];
for (int c = 0; c < universeSize; c++) {
outArray[c] = new DoubleWritable(
array.get(c+dataDimFrom).get() / samplesCount);
}
for (int c = universeSize; c < universeSize*2; c++) {
double val = array.get(c-universeSize+dataDimFrom).get();
outArray[c] = new DoubleWritable((val*val) / samplesCount);
}
context.write(new IntWritable(1), new DoubleArrayWritable(outArray));
}
}
public class CalculateMeanAndSTDEVCombiner extends
Reducer <IntWritable,
DoubleArrayWritable,
IntWritable,
DoubleArrayWritable> {
private int dataDimFrom;
private int dataDimTo;
private int universeSize;
@Override
protected void setup(Context context) throws IOException {
Configuration conf = context.getConfiguration();
dataDimFrom = conf.getInt("dataDimFrom", 0);
dataDimTo = conf.getInt("dataDimTo", 0);
universeSize = dataDimTo - dataDimFrom + 1;
}
@Override
public void reduce(
IntWritable column,
Iterable<DoubleArrayWritable> partialSums,
Context context) throws IOException, InterruptedException {
DoubleWritable[] outArray = new DoubleWritable[universeSize*2];
boolean isFirst = true;
for (DoubleArrayWritable partialSum : partialSums) {
for (int i = 0; i < universeSize*2; i++) {
if (!isFirst) {
outArray[i].set(outArray[i].get()
+ partialSum.get(i).get());
} else {
outArray[i]
= new DoubleWritable(partialSum.get(i).get());
}
}
isFirst = false;
}
context.write(column, new DoubleArrayWritable(outArray));
}
}
public class CalculateMeanAndSTDEVReducer extends
Reducer <IntWritable,
DoubleArrayWritable,
IntWritable,
DoubleArrayWritable> {
private int dataDimFrom;
private int dataDimTo;
private int universeSize;
@Override
protected void setup(Context context) throws IOException {
Configuration conf = context.getConfiguration();
dataDimFrom = conf.getInt("dataDimFrom", 0);
dataDimTo = conf.getInt("dataDimTo", 0);
universeSize = dataDimTo - dataDimFrom + 1;
}
@Override
public void reduce(
IntWritable column,
Iterable<DoubleArrayWritable> partialSums,
Context context) throws IOException, InterruptedException {
DoubleWritable[] outArray = new DoubleWritable[universeSize*2];
boolean isFirst = true;
for (DoubleArrayWritable partialSum : partialSums) {
for (int i = 0; i < universeSize; i++) {
if (!isFirst) {
outArray[i].set(outArray[i].get() + partialSum.get(i).get());
} else {
outArray[i] = new DoubleWritable(partialSum.get(i).get());
}
}
isFirst = false;
}
for (int i = universeSize; i < universeSize * 2; i++) {
double mean = outArray[i-universeSize].get();
outArray[i].set(Math.sqrt(outArray[i].get() - mean*mean));
}
context.write(column, new DoubleArrayWritable(outArray));
}
}
public class DoubleArrayWritable extends ArrayWritable {
public DoubleArrayWritable() {
super(DoubleWritable.class);
}
public DoubleArrayWritable(DoubleWritable[] values) {
super(DoubleWritable.class, values);
}
public DoubleWritable get(int idx) {
return (DoubleWritable) get()[idx];
}
}
最佳答案
我问了有关在相同环境中有相同问题的另一项工作的问题。大卫·格鲁兹曼(David Gruzman)猜测在差异作业开始时间(本地,群集)中存在该问题。他建议使用最佳数据大小,以在这种环境下获得良好的加速(5 GB)。我尝试过,这是真的。
Why job with mappers only is so slow in real cluster?
关于statistics - 通过Hadoop中的列计算均值和标准差,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/8029527/
我最近在读 CSAPP。在 10.9 节中,它说标准 I/O 不应该与 socket 一起使用,原因如下: (1) The restrictions of standard I/O Restricti
似乎是一个足够标准的问题,可以保证解决方案中的标准设计: 假设我想在文件中写入 x+2(或更少)个字符串。 x 字符串构成一个部分的内容,这两个字符串构成该部分的页眉和页脚。要注意的是,如果内容中没有
代码版本管理 在项目中,代码的版本管理非常重要。每个需求版本的代码开发在版本控制里都应该经过以下几个步骤。 在master分支中拉取该需求版本的两个分支,一个feature分支,
我有以下sql查询,我需要获取相应的hibernate条件查询 SELECT COUNT(DISTINCT employee_id) FROM erp_hr_payment WHERE payment
所以我正在编写一些代码,并且最近遇到了实现一些 mixin 的需要。我的问题是,设计混音的正确方法是什么?我将使用下面的示例代码来说明我的确切查询。 class Projectile(Movable,
我的环境变量包含如下双引号: $echo $CONNECT_SASL_JAAS_CONFIG org.apache.kafka.common.security.plain.PlainLoginModu
示例: /** * This function will determine whether or not one string starts with another string. * @pa
有没有办法在 Grails 中做一个不区分大小写的 in 子句? 我有这个: "in"("name", filters.tags) 我希望它忽略大小写。我想我可以做一个 sqlRestriction
我搜索了很长时间,以查找将哪些boost库添加到std库中,但是我只找到了一个新库的完整列表(如此处:http://open-std.org/jtc1/sc22/wg21/docs/library_t
我已经通过使用这个肮脏的黑客解决了我的问题: ' Filter managerial functions ActiveSheet.Range("$A$1:$BW$2211").Auto
因此,我很难理解我需要遵循的标准,以便我的 Java 程序能够嵌入 HTML。我是否只需将我的主类扩展到 Applet 类,或者我还需要做更多的事情吗?另外,在我见过的每个 Applet 示例中,它都
我对在 Hibernate 中使用限制有疑问。 我必须创建条件,设置一些限制,然后选择日期字段最大值的记录: Criteria query = session.createCriteria(Stora
我有标准: ICriteria criteria = Session.CreateCriteria() .SetFetchMode("Entity1", FetchMo
我很难编写条件来选择所有子集合或孙集合为空的实体。我可以将这些作为单独的条件来执行,但我无法将其组合成一个条件。 类结构: public class Component { p
@Entity class A { @ManyToMany private List list; ... } @Entity class B { ... } 我想使用条件(不是 sql 查询)从 A
我的数据库中有以下表结构: Table A: Table B: Table C: _______________
请帮助我: 我有下一张 table : 单位 ID 姓名 用户 ID 姓名 利率 单位 ID 用户 ID 我不明白如何从 SQL 创建正确的条件结构: 代码: SELECT * FROM Unit W
我正在构建一个包含项目的网站,每个项目都有一个页面,例如: website.com/book/123 website.com/film/456 website.com/game/789 每个项目都可以
我需要使用两个属性的组合来过滤结果列表。一个简单的 SQL 语句如下所示: SELECT TOP 10 * FROM Person WHERE FirstName + ' ' + LastName L
我有一个“ super 实体”SuperEntity 和三个扩展父类(super class)的实体 ChildEntity1、...、ChildEntity3。 搜索数据库中的所有实体很容易,即我们
我是一名优秀的程序员,十分优秀!