- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
已成功启动 aws EMR 集群,但任何提交均失败并显示:
19/07/30 08:37:42 ERROR UserData: Error encountered while try to get user data
java.io.IOException: File '/var/aws/emr/userData.json' cannot be read
at com.amazon.ws.emr.hadoop.fs.shaded.org.apache.commons.io.FileUtils.openInputStream(FileUtils.java:296)
at com.amazon.ws.emr.hadoop.fs.shaded.org.apache.commons.io.FileUtils.readFileToString(FileUtils.java:1711)
at com.amazon.ws.emr.hadoop.fs.shaded.org.apache.commons.io.FileUtils.readFileToString(FileUtils.java:1748)
at com.amazon.ws.emr.hadoop.fs.util.UserData.getUserData(UserData.java:62)
at com.amazon.ws.emr.hadoop.fs.util.UserData.<init>(UserData.java:39)
at com.amazon.ws.emr.hadoop.fs.util.UserData.ofDefaultResourceLocations(UserData.java:52)
at com.amazon.ws.emr.hadoop.fs.util.AWSSessionCredentialsProviderFactory.buildSTSClient(AWSSessionCredentialsProviderFactory.java:52)
at com.amazon.ws.emr.hadoop.fs.util.AWSSessionCredentialsProviderFactory.<clinit>(AWSSessionCredentialsProviderFactory.java:17)
at com.amazon.ws.emr.hadoop.fs.rolemapping.DefaultS3CredentialsResolver.resolve(DefaultS3CredentialsResolver.java:22)
at com.amazon.ws.emr.hadoop.fs.guice.CredentialsProviderOverrider.override(CredentialsProviderOverrider.java:25)
at com.amazon.ws.emr.hadoop.fs.s3.lite.executor.GlobalS3Executor.executeOverriders(GlobalS3Executor.java:130)
at com.amazon.ws.emr.hadoop.fs.s3.lite.executor.GlobalS3Executor.execute(GlobalS3Executor.java:86)
at com.amazon.ws.emr.hadoop.fs.s3.lite.AmazonS3LiteClient.invoke(AmazonS3LiteClient.java:184)
at com.amazon.ws.emr.hadoop.fs.s3.lite.AmazonS3LiteClient.doesBucketExist(AmazonS3LiteClient.java:90)
at com.amazon.ws.emr.hadoop.fs.s3n.Jets3tNativeFileSystemStore.ensureBucketExists(Jets3tNativeFileSystemStore.java:139)
at com.amazon.ws.emr.hadoop.fs.s3n.Jets3tNativeFileSystemStore.initialize(Jets3tNativeFileSystemStore.java:116)
at com.amazon.ws.emr.hadoop.fs.s3n.S3NativeFileSystem.initialize(S3NativeFileSystem.java:508)
at com.amazon.ws.emr.hadoop.fs.EmrFileSystem.initialize(EmrFileSystem.java:111)
at org.apache.hadoop.fs.FileSystem.createFileSystem(FileSystem.java:2859)
at org.apache.hadoop.fs.FileSystem.access$200(FileSystem.java:99)
at org.apache.hadoop.fs.FileSystem$Cache.getInternal(FileSystem.java:2896)
at org.apache.hadoop.fs.FileSystem$Cache.get(FileSystem.java:2878)
at org.apache.hadoop.fs.FileSystem.get(FileSystem.java:392)
at org.apache.spark.deploy.DependencyUtils$.org$apache$spark$deploy$DependencyUtils$$resolveGlobPath(DependencyUtils.scala:190)
at org.apache.spark.deploy.DependencyUtils$$anonfun$resolveGlobPaths$2.apply(DependencyUtils.scala:146)
at org.apache.spark.deploy.DependencyUtils$$anonfun$resolveGlobPaths$2.apply(DependencyUtils.scala:144)
at scala.collection.TraversableLike$$anonfun$flatMap$1.apply(TraversableLike.scala:241)
at scala.collection.TraversableLike$$anonfun$flatMap$1.apply(TraversableLike.scala:241)
at scala.collection.IndexedSeqOptimized$class.foreach(IndexedSeqOptimized.scala:33)
at scala.collection.mutable.WrappedArray.foreach(WrappedArray.scala:35)
at scala.collection.TraversableLike$class.flatMap(TraversableLike.scala:241)
at scala.collection.AbstractTraversable.flatMap(Traversable.scala:104)
at org.apache.spark.deploy.DependencyUtils$.resolveGlobPaths(DependencyUtils.scala:144)
at org.apache.spark.deploy.SparkSubmit$$anonfun$prepareSubmitEnvironment$3.apply(SparkSubmit.scala:354)
at org.apache.spark.deploy.SparkSubmit$$anonfun$prepareSubmitEnvironment$3.apply(SparkSubmit.scala:354)
at scala.Option.map(Option.scala:146)
at org.apache.spark.deploy.SparkSubmit.prepareSubmitEnvironment(SparkSubmit.scala:354)
at org.apache.spark.deploy.SparkSubmit.submit(SparkSubmit.scala:143)
at org.apache.spark.deploy.SparkSubmit.doSubmit(SparkSubmit.scala:86)
at org.apache.spark.deploy.SparkSubmit$$anon$2.doSubmit(SparkSubmit.scala:924)
at org.apache.spark.deploy.SparkSubmit$.main(SparkSubmit.scala:933)
at org.apache.spark.deploy.SparkSubmit.main(SparkSubmit.scala)
最佳答案
解决此问题的正确方法是在启动 EMR 时将以下命令作为引导脚本的一部分运行(或者,如果在 Glue 端点上运行,则在端点上的任何点运行以下命令):
chmod 444 /var/aws/emr/userData.json
关于amazon-web-services - aws : EMR cluster fails "ERROR UserData: Error encountered while try to get user data" on submitting spark job,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/57268057/
我对 react 和尝试从 .json 文件(称为 userData.json)获取数据还很陌生,但是即使 userData 是一个数组,.map 也不起作用。 我已经检查过了 console.lo
在我的 asp.net 网站上。我将一些数据放入表单例份验证票证的 UserData 部分。稍后我可以使用访问这些数据 (FormsIdentity)(HttpContext.Current.User
OSX 中的磁盘实用程序可以轻松地将 SD 卡镜像装载为设备,但其他 img 文件则不然。 我想将我刚刚在 Android 模拟器中创建的数据库从驱动器中取出并放入我的 osx 文件系统中。 我使用
这是一个小的 C 测试程序来演示我所看到的。它向 Lua 注册一个新的对象类型并执行一个 Lua 脚本。当脚本调用 __len 元方法时,我希望堆栈上只传递一个参数——对象 userdata。相反,它
在Lua中可以通过自定义类型的方式与C语言代码更高效、更灵活的交互。这里我们通过一个简单完整的示例来学习一下Lua中userdata的使用方式。需要说明的是,该示例完全来自于Programming
我需要搜索事件日志,这是我的代码: IEnumerable q = ( from entry in el.Entries.Cast() where entry.Source =
在 C 函数声明中,我看到了这个参数定义: void *userData 所以,那到底是什么?我的猜测:void 表示它可以是任意的,甚至什么都不是。几乎类似于 objective-c 的 id。它只
我在 lua 中有一个接受用户数据对象的函数。 function Class:AttachToUserdataObject(userdataObject) userDataObject.table
我在 lua 中有一个接受用户数据对象的函数。 function Class:AttachToUserdataObject(userdataObject) userDataObject.table
我有以下代码: if (HttpContext.Current.Request.IsAuthenticated == false) { // this isn't reached so i k
我需要我的标记来保存一些数据(不仅仅是位置、片段和标题,它们已经在使用中)。我创建了一个字典,然后将 marker.userData 设置为该字典。但是,我在从字典中获取值时遇到问题。任何帮助将不胜感
只是想在这里确认一下。是否可以直接将 jqGrid 的 userData 与 JavaScript 类型一起使用(而不是使用带有字段的对象)? 如果我修改example在 jqGrid 文档中,我想将
如何适本地缓存从用户的 callbackBegin() 生成的 userData并发送给用户的callbackEnd() . 简单版本(无用户数据 - demo) 我想创建一个支持回调的复杂数据库。对
我正在根据本教程使用表单例份验证为 ASP.Net 4.0 站点实现自定义标识类: Forms Authentication Configuration and Advanced Topics 我想在
我相信你们中的一些人可能会遇到这个问题。我有一个用 C++ 编写的名为矩阵的用户数据对象,使用常用的运算符重载方式,例如。 CMatrix& operator=(const CMatrix& b);
为了防止 Cluster Auto Scaler 终止某些节点,我需要使用以下内容注释它们: cluster-autoscaler.kubernetes.io/scale-down-disabled=
我想使用 LuaJIT,因为它能够在 Lua 中创建结构和数组。但是我使用数据的函数需要存储数据的用户数据或字符串(不是字符串表示形式,仅用作容器)。 但是通过api我看不到这是否可能。是吗? 谢谢。
UserData: Fn::Base64: !Sub | #!/bin/bash echo "Start" >> /v
我有一个运行良好的 Cloudformation 模板。当我以 Base64 形式为其中一项启动配置添加用户数据时,CloudFormation Ruby API 回复我的 JSON 格式不正确。这是
我正在构建并尝试部署打包的 Electron 应用程序。对于我使用的 package Electron package 器 Electron 安装程序-debian Electron 安装程序-dmg
我是一名优秀的程序员,十分优秀!