- android - RelativeLayout 背景可绘制重叠内容
- android - 如何链接 cpufeatures lib 以获取 native android 库?
- java - OnItemClickListener 不起作用,但 OnLongItemClickListener 在自定义 ListView 中起作用
- java - Android 文件转字符串
我想在 OpenTSDB 上做一些 POC。我已经按照安装说明安装了 OpenTSDB,但启动起来很困难。我正在使用启用了 Kerberos 的 HDP 环境,我正在将 OpenTSDB 与 Kerberized HBase 集成,但面临以下异常。如果有人将 OpenTSDB 与 Kerberos HBase 集成,请指导..
异常(exception):
2017-06-07 14:07:14,254 INFO [main-SendThread(ZKIP1:2181)] ClientCnxn: Opening socket connection to server ZKIP1/192.xxx.xxx.xxx:2181. Will not attempt to authenticate using SASL (unknown error)
控制台 O/P:
2017-06-07 14:07:14,233 INFO [main] ZooKeeper: Client environment:java.library.path=/usr/local/hawq/./lib:/usr/local/hawq/./ext/python/lib::/usr/java/packages/lib/amd64:/usr/lib64:/lib64:/lib:/usr/lib
2017-06-07 14:07:14,233 INFO [main] ZooKeeper: Client environment:java.io.tmpdir=/tmp
2017-06-07 14:07:14,233 INFO [main] ZooKeeper: Client environment:java.compiler=<NA>
2017-06-07 14:07:14,233 INFO [main] ZooKeeper: Client environment:os.name=Linux
2017-06-07 14:07:14,233 INFO [main] ZooKeeper: Client environment:os.arch=amd64
2017-06-07 14:07:14,233 INFO [main] ZooKeeper: Client environment:os.version=2.6.32-431.29.2.el6.x86_64
2017-06-07 14:07:14,234 INFO [main] ZooKeeper: Client environment:user.name=user
2017-06-07 14:07:14,234 INFO [main] ZooKeeper: Client environment:user.home=/home/user
2017-06-07 14:07:14,234 INFO [main] ZooKeeper: Client environment:user.dir=/home/user/opentsdb-2.3.0
2017-06-07 14:07:14,235 INFO [main] ZooKeeper: Initiating client connection, connectString=ZKIP1:2181,ZKIP3:2181,ZKIP2:2181 sessionTimeout=5000 watcher=org.hbase.async.HBaseClient$ZKClient@63d6a00c
2017-06-07 14:07:14,254 INFO [main-SendThread(ZKIP1:2181)] ClientCnxn: Opening socket connection to server ZKIP1/192.xxx.xxx.xxx:2181. Will not attempt to authenticate using SASL (unknown error)
2017-06-07 14:07:14,257 INFO [main] HBaseClient: Need to find the -ROOT- region
2017-06-07 14:07:14,263 INFO [main-SendThread(ZKIP1:2181)] ClientCnxn: Socket connection established to ZKIP1/192.xxx.xxx.xxx:2181, initiating session
2017-06-07 14:07:14,270 INFO [main-SendThread(ZKIP1:2181)] ClientCnxn: Session establishment complete on server ZKIP1/192.xxx.xxx.xxx:2181, sessionid = 0x35ae21cf9870828, negotiated timeout = 5000
2017-06-07 14:07:14,285 ERROR [main-EventThread] HBaseClient: The znode for the -ROOT- region doesn't exist!
2017-06-07 14:07:15,310 ERROR [main-EventThread] HBaseClient: The znode for the -ROOT- region doesn't exist!
2017-06-07 14:07:16,329 ERROR [main-EventThread] HBaseClient: The znode for the -ROOT- region doesn't exist!
2017-06-07 14:07:17,349 ERROR [main-EventThread] HBaseClient: The znode for the -ROOT- region doesn't exist!
2017-06-07 14:07:18,370 ERROR [main-EventThread] HBaseClient: The znode for the -ROOT- region doesn't exist!
最佳答案
我能够使用 OpenTSDB 连接到 kerberos HBase。我列出了我为连接到 kerberos HBase 所做的配置更改。
1) 'opentsdb.conf'
中的配置更改,当您运行 tsdb 命令时,请确保该文件位于路径中。
tsd.network.port = 4242
tsd.storage.hbase.zk_basedir = /hbase-secure
tsd.storage.hbase.zk_quorum = ZKhostname1,ZKhostname2,ZKhostname3
hbase.security.auth.enable=true
hbase.security.authentication=kerberos
hbase.kerberos.regionserver.principal=hbase/hostname@FORSYS.LAN
hbase.sasl.clientconfig=Client
2) 为了避免类路径/JVM 问题,我在位于 '/home/user/opentsdb-2.3.0 的
'tsdb'
文件中完成了所有类路径和 jvm 配置/构建'
# Add the src dir so we can find logback.xml
CLASSPATH="$CLASSPATH:$abs_srcdir/src:/usr/hdp/2.4.2.0-258/zookeeper/lib/:/usr/hdp/2.4.2.0-258/zookeeper/:/etc/hadoop/2.4.2.0-258/0/:/usr/hdp/2.4.2.0-258/hbase/:/etc/hbase/2.4.2.0-258/0/:/home/user/phoenix-4.4.0-HBase-1.1-client.jar"
JVMARGS=${JVMARGS-'-Djava.security.krb5.conf=/etc/krb5.conf -Dhbase.security.authentication=kerberos -Dhbase.kerberos.regionserver.principal=hbase/hostname@FORSYS.LAN -Dhbase.rpc.protection=authentication -Dhbase.sasl.clientconfig=Client -Djava.security.auth.login.config=/home/user/opentsdb-jaas.conf -enableassertions -enablesystemassertions'}
3)opentsdb-jaas.conf文件
Client {
com.sun.security.auth.module.Krb5LoginModule required
useKeyTab=false
useTicketCache=true;
}
4) 用于运行 opentsdb tsd 实例的命令,请注意我们可以在命令行上覆盖 'opentsdb.conf'
中配置的一些属性。
./build/tsdb tsd --port=4242 --staticroot=/home/user/opentsdb-2.3.0/build/staticroot --cachedir=/home/user/opentsdb-2.3.0/构建/缓存目录 --zkquorum=ZKhostname1:2181,ZKhostname2:2181,ZKhostname3:2181
关于hadoop - OpenTSDB 与 kerberized HBase 集成,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/44412563/
我们有一个非 Kerberized Hortonworks 集群,它需要访问 Kerberized Cloudera cluster 中的服务. 非 Kerberized 集群可以通过哪些方式与 Ke
经过几天的锤击,我有一个工作的 CentOS 6.3 系统绑定(bind)到一个运行 Windows 2008R2 的 AD 域。我的方法是使用 Kerberos 身份验证的基于 sssd 的 pam
我已经创建了一个应用程序,并且有一个 kerberos 领域 - 我希望能够“kerberize”这个应用程序。我不是 100% 了解如何执行此操作的详细信息,但是有没有一种方法可以设置任何给定应用程
尝试使用 dask 读取 kerberized HDFS 集群上的 parquet 文件目录,使用以下命令: import hdfs3 hdfs = hdfs3.HDFileSystem(, port
我正在尝试通过 beeline 让 hiveserver2 与 kerberized HDP 2.3 集群一起使用。我在亚马逊ec2。 一旦我得到一张可更新的票,我就可以执行 hdfs 操作并启动 m
我已经对 HDP 2.3 集群进行了 kerbrized,并且在缓存中有一个有效的 TGT。 我可以通过直线控制台成功运行查询。例如,以下事情进展顺利。 $beeline $!connect jdbc
我成功地对一个测试 Hortonworks 集群进行了 Kerberized。 Ambari 为服务创建了 key 表,它们都已启动。名称节点有 HA。备用名称节点启动速度快,事件名称节点需要更长的时
我想在 OpenTSDB 上做一些 POC。我已经按照安装说明安装了 OpenTSDB,但启动起来很困难。我正在使用启用了 Kerberos 的 HDP 环境,我正在将 OpenTSDB 与 Kerb
我正在尝试使用 SQL Alchemy 查询 Kerberized Hive 集群.我可以使用 pyhs2 提交查询这确认在通过 Kerberos 身份验证时可以连接和查询 Hive: import
我让 Apache NiFi 独立运行并且运行良好。但是,当我尝试设置 Apache NiFi 以访问 Hive 或 HDFS Kerberized Cloudera Hadoop 集群时。我遇到了问
我正在尝试通过笔记本电脑上安装的 intelliJ 在本地连接到 hdfs。我正在尝试连接的集群是使用边缘节点进行 Kerberized 化的。我为边缘节点生成了一个 key 表,并在下面的代码中进行
我有一个 java 应用程序需要访问 Hadoop 集群以定期(例如,每 24 小时)获取文件。 由于启用了 Kerberos 协议(protocol)来保护该集群,我正在使用 UserGroupIn
我对 Kerberos 很陌生。我正在使用共享的 Hadoop 集群。我的管理员向我提供了用户名和密码以及 KDC 服务器的位置。 是否可以仅使用 JAVA GSS API 和 Hadoop USer
我设置了一个 HDP 集群,其中包含 Spark。我还为集群启用了 Kerberos,因此所有服务和用户都必须通过其主体进行身份验证。 这似乎工作正常,所有服务都在运行,并且用户必须获得有效的 Ker
我正在尝试按照以下文档连接 H2O 和 kerberized Hive:http://docs.h2o.ai/h2o/latest-stable/h2o-docs/getting-data-into-
我需要使用 Kerberos 身份验证将 Http 请求发送到 Hadoop 集群,并且我想使用 Keytab 进行身份验证。 我通过 Apache 找到了一个库 HttpClient,我编写了这段代
我有一个漂亮的 AngularJS 应用程序,它使用 JBoss (WildFly 8) RESTful API 来检索数据。要将它集成到我的公司环境中,它需要 Kerberos 身份验证。我看过数英
我正在尝试对 AWS EMR 集群进行 Kerberize。我启用了 hadoop 安全性,创建了 kerberos 主体并将它们部署在所有节点上。 但是,当我使用命令“sudo start hado
我使用 Hortonworks Data Platform 2.5 设置了一个 Hadoop 集群,其中还包括 Ambari 2.4、Kerberos、Spark 1.6.2 和 HDFS。 我有例如
我正在使用 impyla 模块连接到 kerberized hadoop 集群。我想访问 hiveserver2/hive 但我收到以下错误: test_conn.py from impala.dba
我是一名优秀的程序员,十分优秀!