- android - RelativeLayout 背景可绘制重叠内容
- android - 如何链接 cpufeatures lib 以获取 native android 库?
- java - OnItemClickListener 不起作用,但 OnLongItemClickListener 在自定义 ListView 中起作用
- java - Android 文件转字符串
import java.io.BufferedReader;
import java.io.FileReader;
import java.io.IOException;
import java.util.Date;
import java.util.HashMap;
import java.text.ParseException;
import java.text.SimpleDateFormat;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.io.LongWritable;
import org.apache.hadoop.io.Text;
import org.apache.hadoop.mapreduce.Mapper;
public class StubMapper extends Mapper<LongWritable, Text, Text, MinMaxCountTuple> {
private Text outUserId = new Text();
private MinMaxCountTuple outTuple = new MinMaxCountTuple();
private final static SimpleDateFormat frmt =
new SimpleDateFormat("yyyy-MM--dd'T'HH:mm:ss.SSS");
// public static HashMap<String, String> getMapFromCSV(String filePath) throws IOException
// {
//
// HashMap<String, String> words = new HashMap<String, String>();
//
// /*BufferedReader in = new BufferedReader(new FileReader(filePath));
//
// String line;
// //= in.readLine())
// while ((line = in.readLine()) != null) {
// String columns[] = line.split(",");
// if (!words.containsKey(columns[1])) {
// words.put(columns[1], columns[6]);
// }
//
// }
//
// return words;
//
// */
//
//
//
// String line=filePath;
//
// while(line!=null){
//
// String columns[] = line.split(",");
// if (columns.length>6){
// if (!words.containsKey(columns[1])) {
// words.put(columns[1], columns[6]);
// }
// }
//
// }
// return words;
// }
@Override
public void map(LongWritable key, Text value, Context context)
throws IOException, InterruptedException {
// HashMap<String, String> parsed = getMapFromCSV(value.toString());
//String columns[] = value.toString().split("\t");
// String strDate = parsed.get("CheckoutDateTime");
//String userId = columns[1];
//String strDate = columns[6];
if(value.toString().startsWith("BibNumber"))
{
return;
}
// String userId = parsed.get("BibNumber");
String data[] = value.toString().split(",",-1);
String userId = data[0];
String DateTime = data[5];
Date creationDate = frmt.parse(DateTime);
outTuple.setMin(creationDate);
outTuple.setMax(creationDate);
outTuple.setCount(1);
outUserId.set(userId);
context.write(outUserId, outTuple);
// TODO Auto-generated catch block
e.printStackTrace();
}
}
}
import java.io.DataInput;
import java.io.DataOutput;
import java.io.IOException;
import java.text.SimpleDateFormat;
import java.util.Date;
import org.apache.hadoop.io.Writable;
public class MinMaxCountTuple implements Writable{
private Date min = new Date();
private Date max = new Date();
private long count = 0;
private final static SimpleDateFormat frmt = new SimpleDateFormat("yyyy-MM-dd'T'HH:mm:ss.SSS");
public Date getMin()
{
return min;
}
public void setMin(Date min)
{
this.min = min;
}
public Date getMax()
{
return max;
}
public void setMax(Date max)
{
this.max = max;
}
public long getCount()
{
return count;
}
public void setCount(long count)
{
this.count = count;
}
@Override
public void write(DataOutput out) throws IOException {
// TODO Auto-generated method stub
out.writeLong(min.getTime());
out.writeLong(max.getTime());
out.writeLong(count);
}
public String toString()
{
return frmt.format(min) + "\t" + frmt.format(max) + "\t" + count;
}
@Override
public void readFields(DataInput in) throws IOException {
// TODO Auto-generated method stub
min = new Date(in.readLong());
max = new Date(in.readLong());
count = in.readLong();
}
}
这两个代码是 mapper 类和 minmax 类,它们可以找到最大的 checkoutdate 时间。基本上,我想要做的是获得一些输出,这些输出主要用于租借一本书。所以,我只是在 csv 文件中使用键和值作为 userId 和 checkoutdatetime。代码运行良好,但问题是映射器输入显示了数据的大小,然而,映射器输出的文件大小仅为 0,这意味着它没有从输入中获得一些输出。我不知道哪一部分是错误的。我张贴了我的 csv 文件的屏幕截图。请赐教,不胜感激。谢谢。如果您需要我的代码的更多信息,请告诉我,我会提供更多信息。
18/03/30 01:38:41 INFO mapred.JobClient: Map input records=3794727
18/03/30 01:38:41 INFO mapred.JobClient: Map output records=0
18/03/30 01:38:41 INFO mapred.JobClient: Map output bytes=0
18/03/30 01:38:41 INFO mapred.JobClient: Input split bytes=416
18/03/30 01:38:41 INFO mapred.JobClient: Combine input records=0
18/03/30 01:38:41 INFO mapred.JobClient: Combine output records=0
18/03/30 01:38:41 INFO mapred.JobClient: Reduce input groups=0
18/03/30 01:38:41 INFO mapred.JobClient: Reduce shuffle bytes=24
18/03/30 01:38:41 INFO mapred.JobClient: Reduce input records=0
18/03/30 01:38:41 INFO mapred.JobClient: Reduce output records=0
最佳答案
Mapper 代码看起来不错。您是否在驱动程序中明确添加了 Output Key 和 Output Value。
job.setMapOutputKeyClass(Text.class);
job.setMapOutputValueClass(MinMaxCountTuple.class);
驱动中没有提到的可以试试。
关于java - java中mapreduce编程没有输出值,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/49569618/
我正在使用 OUTFILE 命令,但由于权限问题和安全风险,我想将 shell 的输出转储到文件中,但出现了一些错误。我试过的 #This is a simple shell to connect t
我刚刚开始学习 Java,我想克服在尝试为这个“问题”创建 Java 程序时出现的障碍。这是我必须创建一个程序来解决的问题: Tandy 喜欢分发糖果,但只有 n 颗糖果。对于她给第 i 个糖果的人,
你好,我想知道我是否可以得到一些帮助来解决我在 C++ 中打印出 vector 内容的问题 我试图以特定顺序在一个或两个函数调用中输出一个类的所有变量。但是我在遍历 vector 时收到一个奇怪的错误
我正在将 intellij (2019.1.1) 用于 java gradle (5.4.1) 项目,并使用 lombok (1.18.6) 来自动生成代码。 Intellij 将生成的源放在 out
编辑:在与 guest271314 交流后,我意识到问题的措辞(在我的问题正文中)可能具有误导性。我保留了旧版本并更好地改写了新版本 背景: 从远程服务器获取 JSON 时,响应 header 包含一
我的问题可能有点令人困惑。我遇到的问题是我正在使用来自 Java 的 StoredProcedureCall 调用过程,例如: StoredProcedureCall call = new Store
在我使用的一些IDL中,我注意到在方法中标记返回值有2个约定-[in, out]和[out, retval]。 当存在多个返回值时,似乎使用了[in, out],例如: HRESULT MyMetho
当我查看 gar -h 的帮助输出时,它告诉我: [...] gar: supported targets: elf64-x86-64 elf32-i386 a.out-i386-linux [...
我想循环遍历一个列表,并以 HTML 格式打印其中的一部分,以代码格式打印其中的一部分。所以更准确地说:我想产生与这相同的输出 1 is a great number 2 is a great
我有下面的tekton管道,并尝试在Google Cloud上运行。集群角色绑定。集群角色。该服务帐户具有以下权限。。例外。不确定需要为服务帐户设置什么权限。
当尝试从 make 过滤非常长的输出以获取特定警告或错误消息时,第一个想法是这样的: $ make | grep -i 'warning: someone set up us the bomb' 然而
我正在创建一个抽象工具类,该类对另一组外部类(不受我控制)进行操作。外部类在某些接口(interface)点概念上相似,但访问它们相似属性的语法不同。它们还具有不同的语法来应用工具操作的结果。我创建了
这个问题已经有答案了: What do numbers starting with 0 mean in python? (9 个回答) 已关闭 7 年前。 在我的代码中使用按位与运算符 (&) 时,我
我写了这段代码来解析输入文件中的行输入格式:电影 ID 可以有多个条目,所以我们应该计算平均值输出:**没有重复(这是问题所在) import re f = open("ratings2.txt",
我需要处理超过 1000 万个光谱数据集。数据结构如下:大约有 1000 个 .fits(.fits 是某种数据存储格式)文件,每个文件包含大约 600-1000 个光谱,其中每个光谱中有大约 450
我编写了一个简单的 C 程序,它读取一个文件并生成一个包含每个单词及其出现频率的表格。 该程序有效,我已经能够在 Linux 上运行的终端中获得显示的输出,但是,我不确定如何获得生成的显示以生成包含词
很难说出这里要问什么。这个问题模棱两可、含糊不清、不完整、过于宽泛或夸夸其谈,无法以目前的形式得到合理的回答。如需帮助澄清此问题以便重新打开,visit the help center . 关闭 1
1.普通的输出: print(str)#str是任意一个字符串,数字··· 2.格式化输出: ?
我无法让 logstash 正常工作。 Basic logstash Example作品。但后来我与 Advanced Pipeline Example 作斗争.也许这也可能是 Elasticsear
这是我想要做的: 我想让用户给我的程序一些声音数据(通过麦克风输入),然后保持 250 毫秒,然后通过扬声器输出。 我已经使用 Java Sound API 做到了这一点。问题是它有点慢。从发出声音到
我是一名优秀的程序员,十分优秀!