- android - 多次调用 OnPrimaryClipChangedListener
- android - 无法更新 RecyclerView 中的 TextView 字段
- android.database.CursorIndexOutOfBoundsException : Index 0 requested, 光标大小为 0
- android - 使用 AppCompat 时,我们是否需要明确指定其 UI 组件(Spinner、EditText)颜色
我正在 Docker 上运行 pyspark。我能够使用 pyspark 进行基本操作。但是当我尝试执行 sql 查询时,出现以下异常
[IN] from pyspark.sql import SQLContext, HiveContext
sqlContext = HiveContext(sc)
rdd = sqlContext.parquetFile("/2014122x.parquet")
rdd.count()
[OUT] 53855299L
但是当我执行以下查询时,出现以下错误
[IN] rdd.registerAsTable("tweets")
sqlContext.sql("drop table if exists tweets_filtered")
%time sqlContext.sql("create table tweets_filtered as "\
+" select floor(cast(timestamp_ms as decimal)/(900*1000)) as ts, source"\
+", user.geo_enabled, user.followers_count, user.friends_count, user.id"\
+", user.lang, user.location, user.verified"\
+" from tweets a where timestamp_ms is not null")
sqlContext.cacheTable("tweets_filtered")
Py4JJavaError: An error occurred while calling o18.sql.
: org.apache.spark.sql.execution.QueryExecutionException: FAILED: Execution Error, return code 1 from org.apache.hadoop.hive.ql.exec.DDLTask. MetaException(message:java.lang.IllegalArgumentException: java.net.UnknownHostException: 3f8c07a0e645)
at org.apache.spark.sql.hive.HiveContext.runHive(HiveContext.scala:309)
at org.apache.spark.sql.hive.HiveContext.runSqlHive(HiveContext.scala:276)
at org.apache.spark.sql.hive.execution.DropTable.sideEffectResult$lzycompute(commands.scala:58)
at org.apache.spark.sql.hive.execution.DropTable.sideEffectResult(commands.scala:56)
at org.apache.spark.sql.execution.Command$class.execute(commands.scala:46)
at org.apache.spark.sql.hive.execution.DropTable.execute(commands.scala:51)
at org.apache.spark.sql.SQLContext$QueryExecution.toRdd$lzycompute(SQLContext.scala:425)
at org.apache.spark.sql.SQLContext$QueryExecution.toRdd(SQLContext.scala:425)
at org.apache.spark.sql.SchemaRDDLike$class.$init$(SchemaRDDLike.scala:58)
at org.apache.spark.sql.SchemaRDD.<init>(SchemaRDD.scala:108)
at org.apache.spark.sql.hive.HiveContext.sql(HiveContext.scala:94)
at sun.reflect.NativeMethodAccessorImpl.invoke0(Native Method)
at sun.reflect.NativeMethodAccessorImpl.invoke(NativeMethodAccessorImpl.java:57)
at sun.reflect.DelegatingMethodAccessorImpl.invoke(DelegatingMethodAccessorImpl.java:43)
at java.lang.reflect.Method.invoke(Method.java:606)
at py4j.reflection.MethodInvoker.invoke(MethodInvoker.java:231)
at py4j.reflection.ReflectionEngine.invoke(ReflectionEngine.java:379)
at py4j.Gateway.invoke(Gateway.java:259)
at py4j.commands.AbstractCommand.invokeMethod(AbstractCommand.java:133)
at py4j.commands.CallCommand.execute(CallCommand.java:79)
at py4j.GatewayConnection.run(GatewayConnection.java:207)
at java.lang.Thread.run(Thread.java:744)
有人可以帮忙解决这个问题吗?
最佳答案
如果您最近升级了 docker(或者可能从 boot2docker 迁移到 docker-machine),则工作目录中的 metastore_db 可能是使用旧 docker 虚拟机的主机名(3f8c07a0e645?)配置的
为了在我的docker上解决这个问题,我完全删除了metastore_db,重新创建了它,当我再次尝试我的命令时,一切都很顺利。不过可能有更好的方法来处理它。
关于java - 在 pyspark 上运行 sql 查询时出现 MetaException(message :java. lang.IllegalArgumentException : java.net.UnknownHostException),我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/28113428/
我有几个 impala 分区表,它们有超过 50k 的分区,除了 Hive Metastore 操作,如 DROP 和 ALTER ... RENAME,我遇到此错误消息: Query: drop t
我在 hive 中创建了一个外部表,当我提供该表的数据位置时,出现以下错误: 失败:元数据中的错误:MetaException(消息:java.lang.IllegalStateException:无
我有 Hive 2.3.3 和 Hadoop 3.1.0。我可以在终端上使用 hive 命令启动 Hive,但是当我尝试创建表时,我收到以下错误: user$ hive readlink: i
我在 Ubuntu 16.04 上运行 Hadoop 2.7.3、MySQL 5.7.17 和 Hive 2.1.1。 当我运行 ./hive 时,我不断收到以下警告和异常: SLF4J: Class
我正在 Docker 上运行 pyspark。我能够使用 pyspark 进行基本操作。但是当我尝试执行 sql 查询时,出现以下异常 [IN] from pyspark.sql import SQL
在 HDP 集群上,我正在尝试创建 Hive 表并将其与现有 Hbase 表集成。它创建配置单元表。但是当我尝试查询配置单元表时,它会抛出以下异常尤其是当列数超过 200 时。 我检查了 hbase
我的 VM 中运行着 hortonworks 沙盒。我已经完成了所有的 hive-site.xml 配置并放置在 Spark/conf 文件中。 我可以使用 PySpark 访问 HBase 并创建/
我使用的是 Ubuntu 12.04、hadoop-0.23.5、hive-0.9.0。我将我的 metastore_db 分别指定到 hive-site.xml 中的其他地方 $HIVE_HOME/
我是一名优秀的程序员,十分优秀!