- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
这是我的代码:
public class CopyOfCassandraMapRed extends Configured implements Tool {
private static final String KEYSPACE = "keyspace1";
private static final String COLUMN_FAMILY = "users";
private static final String CONF_COLUMN_NAME = "columnName";
private static final String COLUMN_NAME = "name";
private String OUTPUT_COLUMN_FAMILY = "OPt_CF";
public static class CassandraMap extends
Mapper<String, SortedMap<byte[], IColumn>, Text, LongWritable> {
private final static LongWritable one = new LongWritable(1);
private Text word = new Text();
private String columnName;
protected void map(String key, SortedMap<byte[], IColumn> columns,
Context context) throws java.io.IOException,
InterruptedException {
IColumn column = columns.get(columnName.getBytes());
if (column == null) {
return;
}
word.set(new String(columnName));
context.write(word, one);
}
protected void setup(Context context) throws java.io.IOException,
InterruptedException {
this.columnName = context.getConfiguration().get(CONF_COLUMN_NAME);
}
}
public static class CassandraReduce extends
Reducer<Text, LongWritable, Text, LongWritable> {
private LongWritable result = new LongWritable();
protected void reduce(Text key, Iterable<LongWritable> values,
Context context) throws java.io.IOException,
InterruptedException {
long sum = 0;
for (LongWritable val : values) {
sum += val.get();
}
result.set(sum);
context.write(key, result);
}
}
public int run(String[] args) throws Exception {
String outputPath = args[1];
Configuration conf = getConf();
conf.set(CONF_COLUMN_NAME, COLUMN_NAME);
Job job = new Job(conf, "CassandraMapRed");
job.setJarByClass(CopyOfCassandraMapRed.class);
job.setMapperClass(CassandraMap.class);
job.setCombinerClass(CassandraReduce.class);
job.setReducerClass(CassandraReduce.class);
job.setOutputKeyClass(Text.class);
job.setOutputValueClass(LongWritable.class);
job.setInputFormatClass(ColumnFamilyInputFormat.class);
FileOutputFormat.setOutputPath(job, new Path(outputPath));
ConfigHelper.setInputRpcPort(job.getConfiguration(), "9160");
ConfigHelper
.setInputInitialAddress(job.getConfiguration(), "localhost");
ConfigHelper.setInputPartitioner(job.getConfiguration(),
"org.apache.cassandra.dht.RandomPartitioner");
ConfigHelper.setInputColumnFamily(job.getConfiguration(), KEYSPACE,
COLUMN_FAMILY);
ConfigHelper.setOutputColumnFamily(job.getConfiguration(), KEYSPACE,
OUTPUT_COLUMN_FAMILY);
SlicePredicate predicate = new SlicePredicate().setColumn_names(Arrays
.asList(ByteBufferUtil.bytes(COLUMN_NAME) /*
* ByteBufferUtil.bytes(
* "text")
*/));
ConfigHelper.setInputSlicePredicate(job.getConfiguration(), predicate);
System.out.println("running job now..");
boolean success = job.waitForCompletion(true);
return success ? 0 : 1;
}
}
<小时/>
与主类一起编译
package com.manual;
public class Hassandra {
private static final Log log = LogFactory.getLog(Hassandra.class);
private static final String CASSANDRA = "cassandra";
public static void main(String[] args) {
Hassandra h = new Hassandra();
// args[1] = "/home/user/Desktop/hadoopCass.op";
System.exit(h.run(args));
}
public int run(String[] args) {
StopWatch stopWatch = new StopWatch();
stopWatch.start();
int status = -1;
try {
// status = ToolRunner.run((Tool) new MapReducerDemo(), args);
status = ToolRunner.run(new CopyOfCassandraMapRed(), args);
} catch (Exception e) {
// TODO Auto-generated catch block
e.printStackTrace();
}
stopWatch.stop();
log.info("response time: " + stopWatch.getTime());
return status;
}
}
<小时/>
我在这里遇到异常-
java.lang.Exception: java.lang.ClassCastException: java.nio.HeapByteBuffer cannot be cast to java.lang.String
at org.apache.hadoop.mapred.LocalJobRunner$Job.run(LocalJobRunner.java:354)
Caused by: java.lang.ClassCastException: java.nio.HeapByteBuffer cannot be cast to java.lang.String
at com.manual.CopyOfCassandraMapRed$CassandraMap.map(CopyOfCassandraMapRed.java:1)
at org.apache.hadoop.mapreduce.Mapper.run(Mapper.java:145)
at org.apache.hadoop.mapred.MapTask.runNewMapper(MapTask.java:764)
at org.apache.hadoop.mapred.MapTask.run(MapTask.java:364)
at org.apache.hadoop.mapred.LocalJobRunner$Job$MapTaskRunnable.run(LocalJobRunner.java:223)
at java.util.concurrent.Executors$RunnableAdapter.call(Executors.java:471)
at java.util.concurrent.FutureTask.run(FutureTask.java:262)
at java.util.concurrent.ThreadPoolExecutor.runWorker(ThreadPoolExecutor.java:1145)
at java.util.concurrent.ThreadPoolExecutor$Worker.run(ThreadPoolExecutor.java:615)
at java.lang.Thread.run(Thread.java:744)
14/01/28 14:54:28 INFO mapred.JobClient: map 99% reduce 0%
14/01/28 14:54:28 INFO mapred.JobClient: Job complete: job_local918272987_0001
14/01/28 14:54:28 INFO mapred.JobClient: Counters: 15
14/01/28 14:54:28 INFO mapred.JobClient: File Input Format Counters
14/01/28 14:54:28 INFO mapred.JobClient: Bytes Read=0
14/01/28 14:54:28 INFO mapred.JobClient: FileSystemCounters
14/01/28 14:54:28 INFO mapred.JobClient: FILE_BYTES_READ=142637420
14/01/28 14:54:28 INFO mapred.JobClient: FILE_BYTES_WRITTEN=22830572
14/01/28 14:54:28 INFO mapred.JobClient: Map-Reduce Framework
14/01/28 14:54:28 INFO mapred.JobClient: Map output materialized bytes=1536
14/01/28 14:54:28 INFO mapred.JobClient: Combine output records=0
14/01/28 14:54:28 INFO mapred.JobClient: Map input records=1
14/01/28 14:54:28 INFO mapred.JobClient: Physical memory (bytes) snapshot=0
14/01/28 14:54:28 INFO mapred.JobClient: Spilled Records=0
14/01/28 14:54:28 INFO mapred.JobClient: Map output bytes=0
14/01/28 14:54:28 INFO mapred.JobClient: Total committed heap usage (bytes)=190955126784
14/01/28 14:54:28 INFO mapred.JobClient: CPU time spent (ms)=0
14/01/28 14:54:28 INFO mapred.JobClient: Virtual memory (bytes) snapshot=0
14/01/28 14:54:28 INFO mapred.JobClient: SPLIT_RAW_BYTES=26532
14/01/28 14:54:28 INFO mapred.JobClient: Map output records=0
14/01/28 14:54:28 INFO mapred.JobClient: Combine input records=0
14/01/28 14:54:28 INFO manual.Hassandra: response time: 26230
谁能告诉我如何处理这个异常?
这些是我在专栏系列中的条目
[default@user] list users;
Using default limit of 100
Using default cell limit of 100
-------------------
RowKey: key1
=> (name=name, value=myName, timestamp=1390899337732000)
1 Row Returned.
最佳答案
切换自
public static class CassandraMap extends
Mapper<String, SortedMap<byte[], IColumn>, Text, LongWritable>
到
public static class CassandraMap extends
Mapper<ByteBuffer, SortedMap<byte[], IColumn>, Text, LongWritable>
http://grepcode.com/file/repo1.maven.org/maven2/org.apache.cassandra/cassandra-all/2.0.1/org/apache/cassandra/hadoop/ColumnFamilyInputFormat.java返回 ByteBuffer,而不是字符串。
关于java - mapreduce cassandra 给出 classcast 异常,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/21401833/
问题很简单:我正在寻找一种优雅的使用方式 CompletableFuture#exceptionally与 CompletableFuture#supplyAsync 一起.这是行不通的: priva
对于 Web 服务,我们通常使用 maven-jaxb2-plugin 生成 java bean,并在 Spring 中使用 JAXB2 编码。我想知道如何处理 WSDL/XSD 中声明的(SOAP-
这个问题已经有答案了: Array index out of bound behavior (10 个回答) 已关闭 8 年前。 我对下面的 C 代码感到好奇 int main(){
当在类的开头使用上下文和资源初始化 MediaPlayer 对象时,它会抛出 NullPointer 异常,但是当在类的开头声明它时(因此它是 null),然后以相同的方式初始化它在onCreate方
嘿 我尝试将 java 程序连接到 REST API。 使用相同的代码部分,我在 Java 6 中遇到了 Java 异常,并且在 Java 8 中运行良好。 环境相同: 信任 机器 unix 用户 代
我正在尝试使用 Flume 和 Hive 进行 Twitter 分析。为了从 twitter 获取推文,我在 flume.conf 文件中设置了所有必需的参数(consumerKey、consumer
我在 JavaFX 异常方面遇到一些问题。我的项目在我的 Eclipse 中运行,但现在我的 friend 也尝试访问该项目。我们已共享并直接保存到保管箱文件夹中。但他根本无法让它发挥作用。他在控制台
假设我使用 blur() 事件验证了电子邮件 ID,我正在这样做: $('#email').blur(function(){ //make ajax call , check if dupli
我这样做是为了从 C 代码调用非托管函数。 pCallback 是一个函数指针,因此在托管端是一个委托(delegate)。 [DllImport("MyDLL.dll")] public stati
为什么这段代码是正确的: try { } catch(ArrayOutOfBoundsException e) {} 这是错误的: try { } catch(IOException e) {} 这段
我遇到了以下问题:有导出函数的DLL。 代码示例如下:[动态链接库] __declspec(dllexport) int openDevice(int,void**) [应用] 开发者.h: __de
从其他线程,我知道我们不应该在析构函数中抛出异常!但是对于下面的例子,它确实有效。这是否意味着我们只能在一个实例的析构函数中抛出异常?我们应该如何理解这个代码示例! #include using n
为什么需要异常 引出 public static void main(String[
1. Java的异常机制 Throwable类是Java异常类型的顶层父类,一个对象只有是 Throwable 类的(直接或者间接)实例,他才是一个异常对象,才能被异常处理机制识别。JDK中内
我是 Python 的新手,我对某种异常方法的实现有疑问。这是代码(缩写): class OurException(Exception): """User defined Exception"
我已经创建了以下模式来表示用户和一组线程之间的关联,这些线程按他们的最后一条消息排序(用户已经阅读了哪些线程,哪些没有): CREATE TABLE table(user_id bigint, mes
我正在使用 Python 编写一个简单的自动化脚本,它可能会在多个位置引发异常。在他们每个人中,我都想记录一条特定的消息并退出程序。为此,我在捕获异常并处理它(执行特定的日志记录操作等)后引发 Sys
谁能解释一下为什么这会导致错误: let xs = [| "Mary"; "Mungo"; "Midge" |] Array.iter printfn xs 虽然不是这样: Array.iter pr
在我使用 Play! 的网站上,我有一个管理部分。所有 Admin Controller 都有一个 @With 和一个 @Check 注释。 断开连接后,一切正常。连接后,每次加载页面(任何页面,无论
我尝试连接到 azure 表存储并添加一个对象。它在本地主机上工作得很好,但是在我使用的服务器上我得到以下异常及其内部异常: Exception of type 'Microsoft.Wind
我是一名优秀的程序员,十分优秀!