gpt4 book ai didi

scala - 由 : java. lang.ClassNotFoundException : org. apache.hadoop.hbase.HBaseConfiguration 引起

转载 作者:可可西里 更新时间:2023-11-01 15:26:14 25 4
gpt4 key购买 nike

我正在尝试在 Hbase 上(在指定的集群上)创建一个表,我尝试了以下代码:

import org.apache.hadoop.hbase.client.{HTable, Put, HBaseAdmin}
import org.apache.hadoop.hbase.util.Bytes
import org.apache.hadoop.hbase.mapreduce.TableInputFormat
import org.apache.hadoop.hbase.{HBaseConfiguration, HTableDescriptor, HColumnDescriptor}

object ImportData {
var cf = "d"
def createTable (TableName : String, NameSpace : String , reset : Boolean): HTable = {

// initialize configuration and admin
val Hbaseconfig = HBaseConfiguration.create()
val hbaseAdmin = new HBaseAdmin (Hbaseconfig)

// check if table exsit )
if (!hbaseAdmin.isTableAvailable(NameSpace + ":" + TableName) || (reset)) {
if (hbaseAdmin.isTableAvailable(NameSpace + ":" + TableName) && (reset)) { //force delete table
hbaseAdmin.disableTable(NameSpace + ":" + TableName)
hbaseAdmin.deleteTable(NameSpace + ":" + TableName)
}

val tableDesc = new HTableDescriptor ((NameSpace + ":" + TableName).getBytes())
val tableFamily = new HColumnDescriptor(cf)

// Adding column families to table descriptor
tableDesc.addFamily(tableFamily)
// create table
hbaseAdmin.createTable(tableDesc)
}


Hbaseconfig.set(TableInputFormat.INPUT_TABLE, NameSpace + ":" + TableName)
val Table = new HTable(Hbaseconfig, NameSpace + ":" + TableName)
println (">>> Table " + Table + "created on Hbase")
return Table
}
// put data in table
def writetotable(table : HTable, columnname : List[String],value : List[String]){
val Lsize = columnname.size-1
var p = new Put(Bytes.toBytes("row1"));
for ( i <- 0 to Lsize){
p.add(Bytes.toBytes(cf), Bytes.toBytes(columnname(i)),Bytes.toBytes(value(i)));
}

table.put (p);
table.close()

}

}

我在 HUE 服务器上使用 spark 运行它,但出现以下错误:

17/10/10 12:04:34 ERROR ApplicationMaster: User class threw exception: java.lang.NoClassDefFoundError: org/apache/hadoop/hbase/HBaseConfiguration
**java.lang.NoClassDefFoundError: org/apache/hadoop/hbase/HBaseConfiguration**
at com.renault.fic_histo.parsing.ImportData$.createTable(ImportData.scala:13)
at com.renault.fic_histo.parsing.Global_Main.save_fic_histo(Global_Main.scala:32)
at com.renault.fic_histo.parsing.Global_Main$.main(Global_Main.scala:47)
at com.renault.fic_histo.parsing.Global_Main.main(Global_Main.scala)
at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:62)
at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
at java.lang.reflect.Method.invoke(Method.java:497)
at org.apache.spark.deploy.yarn.ApplicationMaster$$anon$2.run(ApplicationMaster.scala:559)
**Caused by: java.lang.ClassNotFoundException: org.apache.hadoop.hbase.HBaseConfiguration**
at java.net.URLClassLoader.findClass(URLClassLoader.java:381)
at java.lang.ClassLoader.loadClass(ClassLoader.java:424)
at sun.misc.Launcher$AppClassLoader.loadClass(Launcher.java:331)
at java.lang.ClassLoader.loadClass(ClassLoader.java:357)

我读到我必须使用以下代码在 hadoop-env.sh 文件中添加 hbase 类路径:

$ export HADOOP_CLASSPATH=$HBASE_HOME/hbase-0.94.22.jar:\
$HBASE_HOME/hbase-0.94.22-test.jar:\
$HBASE_HOME/conf:\
${HBASE_HOME}/lib/zookeeper-3.4.5.jar:\
${HBASE_HOME}/lib/protobuf-java-2.4.0a.jar:\
${HBASE_HOME}/lib/guava-11.0.2.jar

这是我的问题:1.我没有在本地运行它,所以我不能改变这个配置。我能做些什么来解决这个问题?
2. 我应该在我的代码中连接或指定 hbase 集群吗?有人可以给我一个很好的教程吗?

谢谢

最佳答案

hbase-common.jar 包含 org.apache.hadoop.hbase.HBaseConfiguration 的类定义。因此,您需要在 HADOOP_CLASSPATH 中包含 hbase-common.jar

关于scala - 由 : java. lang.ClassNotFoundException : org. apache.hadoop.hbase.HBaseConfiguration 引起,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/46664233/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com