- android - RelativeLayout 背景可绘制重叠内容
- android - 如何链接 cpufeatures lib 以获取 native android 库?
- java - OnItemClickListener 不起作用,但 OnLongItemClickListener 在自定义 ListView 中起作用
- java - Android 文件转字符串
我正在尝试连接一个 spark-shell amazon hadoop,但我总是出现以下错误并且不知道如何修复它或配置缺少的内容。
spark.yarn.jars
, spark.yarn.archive
spark-shell --jars /usr/share/aws/emr/ddb/lib/emr-ddb-hadoop.jar
Setting default log level to "WARN".
To adjust logging level use sc.setLogLevel(newLevel).
16/08/12 07:47:26 WARN Utils: Service 'SparkUI' could not bind on port 4040. Attempting port 4041.
16/08/12 07:47:28 WARN Client: Neither spark.yarn.jars nor spark.yarn.archive is set, falling back to uploading libraries under SPARK_HOME.
谢谢!!!
错误 1
我正在尝试运行一个 SQL 查询,一些非常简单的事情:
val sqlDF = spark.sql("SELECT col1 FROM tabl1 limit 10")
sqlDF.show()
WARN YarnScheduler: Initial job has not accepted any resources; check your cluster UI to ensure that workers are registered and have sufficient resources
错误2
然后我尝试运行脚本 scala,一些简单的东西收集在: https://blogs.aws.amazon.com/bigdata/post/Tx2D93GZRHU3TES/Using-Spark-SQL-for-ETL
import org.apache.hadoop.io.Text;
import org.apache.hadoop.dynamodb.DynamoDBItemWritable
import com.amazonaws.services.dynamodbv2.model.AttributeValue
import org.apache.hadoop.dynamodb.read.DynamoDBInputFormat
import org.apache.hadoop.dynamodb.write.DynamoDBOutputFormat
import org.apache.hadoop.mapred.JobConf
import org.apache.hadoop.io.LongWritable
import java.util.HashMap
var ddbConf = new JobConf(sc.hadoopConfiguration)
ddbConf.set("dynamodb.output.tableName", "tableDynamoDB")
ddbConf.set("dynamodb.throughput.write.percent", "0.5")
ddbConf.set("mapred.input.format.class", "org.apache.hadoop.dynamodb.read.DynamoDBInputFormat")
ddbConf.set("mapred.output.format.class", "org.apache.hadoop.dynamodb.write.DynamoDBOutputFormat")
var genreRatingsCount = sqlContext.sql("SELECT col1 FROM table1 LIMIT 1")
var ddbInsertFormattedRDD = genreRatingsCount.map(a => {
var ddbMap = new HashMap[String, AttributeValue]()
var col1 = new AttributeValue()
col1.setS(a.get(0).toString)
ddbMap.put("col1", col1)
var item = new DynamoDBItemWritable()
item.setItem(ddbMap)
(new Text(""), item)
}
)
ddbInsertFormattedRDD.saveAsHadoopDataset(ddbConf)
scala.reflect.internal.Symbols$CyclicReference: illegal cyclic reference involving object InterfaceAudience at scala.reflect.internal.Symbols$Symbol$$anonfun$info$3.apply(Symbols.scala:1502) at scala.reflect.internal.Symbols$Symbol$$anonfun$info$3.apply(Symbols.scala:1500) at scala.Function0$class.apply$mcV$sp(Function0.scala:34)
最佳答案
看起来 spark UI 没有启动,尝试启动 spark shell 并检查 sparkUI localhost:4040
是否正确运行。
关于hadoop - 错误 spark-shell,回退到在 SPARK_HOME 下上传库,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/38912706/
在尝试设置和运行 pyspark 时,我收到以下错误: tom@tom-OptiPlex-3060:~$ pyspark Could not find valid SPARK_HOME while s
通过 pip install pyspark 全新安装 pyspark 后,出现以下错误: > pyspark Could not find valid SPARK_HOME while search
安装了 apache-maven-3.3.3,scala 2.11.6,然后运行: $ git clone git://github.com/apache/spark.git -b branch-1.
当我尝试时: from pyspark import SparkContext, SparkConf sc=SparkContext() 我得到: KeyError: 'SPARK_HOME' 解决方
我在 Kubernetes 集群(Minikube)中有一个 Spark 集群(Master + 2 Workers)。 我想在我的 k8s 集群中添加 Zeppelin 并将其配置为使用我的 Spa
我将我的 PATH 更新为如下所示: PATH="$HOME/bin:$HOME/.local/bin:$PATH:/home/username/Installs/Spark/bin" 我认为它起作用
我是 spark 新手,我想从命令行运行 Python 脚本。我已经交互式地测试了 pyspark 并且它有效。尝试创建 sc 时出现此错误: File "test.py", line 10, in
我想在将所有测试模块上传到 Jenkins 构建之前一起运行它们,所以我使用 python -m unittest tests/*.py 我的 devops-config.yml 文件中的命令。 但我
我是 hive 的初学者,当我启动 spark 作业并从 hive 读取数据时发生了一些事情(找不到表)。我没有在 $SPARK_HOME/conf 中设置 hive-site.xml 吗? 提交sp
我正在尝试连接一个 spark-shell amazon hadoop,但我总是出现以下错误并且不知道如何修复它或配置缺少的内容。 spark.yarn.jars, spark.yarn.archiv
我无法在 Jupyter 笔记本中的导入下运行。 findspark.init('home/ubuntu/spark-3.0.0-bin-hadoop3.2') 收到以下错误: -------
我是一名优秀的程序员,十分优秀!