- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我已经为Hadoop yarn 设置了 docker ,并且我正在尝试设置livy apache服务器以进行API调用以提交作业。
以下日志表示livy服务器启动了一段时间并自动停止
19/08/17 07:09:35 INFO utils.LineBufferedStream: Welcome to
19/08/17 07:09:35 INFO utils.LineBufferedStream: ____ __
19/08/17 07:09:35 INFO utils.LineBufferedStream: / __/__ ___ _____/ /__
19/08/17 07:09:35 INFO utils.LineBufferedStream: _\ \/ _ \/ _ `/ __/ '_/
19/08/17 07:09:35 INFO utils.LineBufferedStream: /___/ .__/\_,_/_/ /_/\_\ version 2.2.1
19/08/17 07:09:35 INFO utils.LineBufferedStream: /_/
19/08/17 07:09:35 INFO utils.LineBufferedStream:
19/08/17 07:09:35 INFO utils.LineBufferedStream: Using Scala version 2.11.8, OpenJDK 64-Bit Server VM, 1.8.0_222
19/08/17 07:09:35 INFO utils.LineBufferedStream: Branch
19/08/17 07:09:35 INFO utils.LineBufferedStream: Compiled by user felixcheung on 2017-11-24T23:19:45Z
19/08/17 07:09:35 INFO utils.LineBufferedStream: Revision
19/08/17 07:09:35 INFO utils.LineBufferedStream: Url
19/08/17 07:09:35 INFO utils.LineBufferedStream: Type --help for more information.
19/08/17 07:09:35 INFO recovery.StateStore$: Using BlackholeStateStore for recovery.
19/08/17 07:09:35 INFO sessions.BatchSessionManager: Recovered 0 batch sessions. Next session id: 0
19/08/17 07:09:35 INFO sessions.InteractiveSessionManager: Recovered 0 interactive sessions. Next session id: 0
19/08/17 07:09:35 INFO sessions.InteractiveSessionManager: Heartbeat watchdog thread started.
19/08/17 07:09:35 INFO util.log: Logging initialized @1944ms
19/08/17 07:09:36 INFO server.Server: jetty-9.3.24.v20180605, build timestamp: 2018-06-05T17:11:56Z, git hash: xxx0x0x0xx00xxxx0x0x0x0x0x0x0x0xxxx
19/08/17 07:09:36 INFO handler.ContextHandler: Started o.e.j.s.ServletContextHandler@3543df7d{/,file:///livy/apache-livy-0.6.0-incubating-bin/bin/src/main/org/apache/livy/server,AVAILABLE}
19/08/17 07:09:36 INFO server.AbstractNCSARequestLog: Opened /livy/apache-livy-0.6.0-incubating-bin/logs/2019_08_17.request.log
19/08/17 07:09:36 INFO server.AbstractConnector: Started ServerConnector@686449f9{HTTP/1.1,[http/1.1]}{x.x.x.x:8080}
19/08/17 07:09:36 INFO server.Server: Started @2304ms
19/08/17 07:09:36 INFO server.WebServer: Starting server on http://x.x.x.x:8080
19/08/17 07:10:01 INFO server.LivyServer: Shutting down Livy server.
19/08/17 07:10:01 INFO handler.ContextHandler: Stopped o.e.j.s.ServletContextHandler@3543df7d{/,file:///livy/apache-livy-0.6.0-incubating-bin/bin/src/main/org/apache/livy/server,UNAVAILABLE}
19/08/17 07:10:01 INFO server.AbstractConnector: Stopped ServerConnector@686449f9{HTTP/1.1,[http/1.1]}{x.x.x.x:8080}
version: "2"
services:
livy:
image: namenode/hadoopspark:2.2.1
command: /livy/apache-livy-0.6.0-incubating-bin/bin/livy-server start
network_mode: "host"
ports:
- 8080:8080
#####################BASE DOCKERFILE#################
FROM ubuntu:14.04
ENV DAEMON_RUN=true
ENV SPARK_VERSION=2.2.1
ENV HADOOP_VERSION=2.7
ENV SPARK_HOME=/spark
ENV HADOOP_HOME=/hadoop
RUN apt-get update \
&& apt-get install -y software-properties-common openssh-server net-tools curl nano vim wget ca-certificates jq gnupg unzip
RUN add-apt-repository ppa:openjdk-r/ppa
RUN apt-get update
RUN apt-get install -y openjdk-8-jdk \
supervisor
RUN ssh-keygen -q -N "" -t rsa -f /root/.ssh/id_rsa
RUN cp /root/.ssh/id_rsa.pub /root/.ssh/authorized_keys
RUN wget https://www-eu.apache.org/dist/incubator/livy/0.6.0-incubating/apache-livy-0.6.0-incubating-bin.zip \
&& unzip apache-livy-0.6.0-incubating-bin.zip \
&& mkdir -p livy \
&& mv apache-livy-0.6.0-incubating-bin /livy
RUN wget https://archive.apache.org/dist/spark/spark-${SPARK_VERSION}/spark-${SPARK_VERSION}-bin-hadoop${HADOOP_VERSION}.tgz \
&& tar -xzf spark-${SPARK_VERSION}-bin-hadoop${HADOOP_VERSION}.tgz \
&& mv spark-${SPARK_VERSION}-bin-hadoop${HADOOP_VERSION} /spark
RUN wget https://archive.apache.org/dist/hadoop/core/hadoop-2.7.3/hadoop-2.7.3.tar.gz \
&& tar -xzvf hadoop-2.7.3.tar.gz \
&& mv hadoop-2.7.3 /hadoop
ENV JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64
ENV HADOOP_CONF_DIR=/hadoop/etc/hadoop
RUN echo "export JAVA_HOME=/usr/lib/jvm/java-8-openjdk-amd64/jre/ \
export HADOOP_HOME=/hadoop \
export HADOOP_CONF_DIR=/hadoop/etc/hadoop \
export HADOOP_SSH_OPTS='"-p 22"' \
" >> /hadoop/etc/hadoop/hadoop-env.sh
ENV PATH=$SPARK_HOME/bin:$PATH
ENV PATH=$PATH:/hadoop/bin:/hadoop/sbin
################NAMENODE DOCKERFILE####################
FROM base/hadoopspark:2.2.1
COPY conf/* /tmp/
RUN cp /tmp/hdfs-site.xml $HADOOP_HOME/etc/hadoop/hdfs-site.xml && \
cp /tmp/core-site.xml $HADOOP_HOME/etc/hadoop/core-site.xml && \
cp /tmp/mapred-site.xml $HADOOP_HOME/etc/hadoop/mapred-site.xml && \
cp /tmp/yarn-site.xml $HADOOP_HOME/etc/hadoop/yarn-site.xml && \
cp /tmp/hdfs-site.xml $SPARK_HOME/conf/ && \
cp /tmp/core-site.xml $SPARK_HOME/conf/ && \
cp /tmp/mapred-site.xml $SPARK_HOME/conf/ && \
cp /tmp/yarn-site.xml $SPARK_HOME/conf/ && \
cp /tmp/spark-defaults.conf $SPARK_HOME/conf/ && \
cp /tmp/livy.conf /livy/apache-livy-0.6.0-incubating-bin/conf
COPY Docker_WordCount_Spark-1.0.jar /opt/Docker_WordCount_Spark-1.0.jar
COPY sample.txt /opt/sample.txt
#RUN hdfs dfs -put /opt/Docker_WordCount_Spark-1.0.jar Docker_WordCount_Spark-1.0.jar
#RUN hdfs dfs -put /opt/sample.txt sample.txt
ENV LD_LIBRARY_PATH=/hadoop/lib/native:$LD_LIBRARY_PATH
RUN sudo service ssh restart
RUN sudo /hadoop/bin/hadoop namenode -format
EXPOSE 8998 8080
最佳答案
Docker要求命令保持在前台运行。否则,它认为应用程序已停止并关闭了容器。由于livy服务器启动脚本在后台进程中运行,并且以后没有其他前台进程触发,因此这就是脚本结束时容器退出的原因。您可以通过多种方法解决此问题,简单的解决方案是在 Dockerfile 中添加以下命令以启动肝脏服务器(从docker-compose.yml中删除命令)
CMD /livy/apache-livy-0.6.0-incubating-bin/bin/livy-server start && /bin/bash
FROM base/hadoopspark:2.2.1
COPY conf/* /tmp/
ENV SPARK_HOME=/spark
ENV HADOOP_HOME=/hadoop
RUN cp /tmp/hdfs-site.xml $HADOOP_HOME/etc/hadoop/hdfs-site.xml && \
cp /tmp/core-site.xml $HADOOP_HOME/etc/hadoop/core-site.xml && \
cp /tmp/mapred-site.xml $HADOOP_HOME/etc/hadoop/mapred-site.xml && \
cp /tmp/yarn-site.xml $HADOOP_HOME/etc/hadoop/yarn-site.xml && \
cp /tmp/hdfs-site.xml $SPARK_HOME/conf/ && \
cp /tmp/core-site.xml $SPARK_HOME/conf/ && \
cp /tmp/mapred-site.xml $SPARK_HOME/conf/ && \
cp /tmp/yarn-site.xml $SPARK_HOME/conf/ && \
cp /tmp/spark-defaults.conf $SPARK_HOME/conf/ && \
cp /tmp/livy.conf /livy/apache-livy-0.6.0-incubating-bin/conf
COPY Docker_WordCount_Spark-1.0.jar /opt/Docker_WordCount_Spark-1.0.jar
COPY sample.txt /opt/sample.txt
ENV LD_LIBRARY_PATH=/hadoop/lib/native:$LD_LIBRARY_PATH
RUN sudo service ssh restart
RUN sudo /hadoop/bin/hadoop namenode -format
ENV PATH=$SPARK_HOME/bin:$HADOOP_HOME/bin:$HADOOP_HOME/sbin:$PATH
EXPOSE 8998 8080
CMD /livy/apache-livy-0.6.0-incubating-bin/bin/livy-server start && /bin/bash
关于docker - 还有与Livy服务器(livy.conf)一起完成的其他配置吗?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/57534640/
我在play官方网站上关注了“Learn”。我使用的是window 7+Chrome。 D:\tester\play>dir Volume in drive D is APPLIS Volum
我有一个 play 1.2.5 应用程序,想将它部署到某个地方(这样我就可以为一些 OAuth 回调注册它)。我正在尝试将其推送到 heroku,但出现以下错误 -----> Play! app de
周围有两个配置文件,/etc/nginx/conf.d/default.conf和 /etc/nginx/nginx.conf,但是启用了哪一个呢?我运行的是 CentOS6.4 和 nginx/1.
我已经在Flume 1.6.0-cdh5.4.2(CentOS)中安装了cloudera VM 我认为配置和一切都很好 我运行了以下命令槽 flume-ng --conf /conf agent -
为了避免对我本地托管的 apache-tomcat Web 服务器上托管的 Web 应用程序进行点击劫持攻击,我正在尝试编辑“httpd.conf”文件以向其附加 X 选项。 用“sudo nano/
当我想为 intel Galileo 构建一个 yocto 镜像时,我按照网站中提到的这些说明进行操作 https://software.intel.com/en-us/blogs/2015/03/0
如果我有一个名为 mysite.conf 的文件存储在 /etc/nginx/conf.d .有没有办法获取字符串值'mysite'从conf文件中? 我想多次符号链接(symbolic link)一
为大学生编写一个应用程序——显示一个系列表,你点击一个,然后它会显示该系的类(class),点击一个,然后显示教授该类(class)的教授。 URL conf 有问题——我的应用程序不断将我重定向到错
当试图启动 apache 时 sudo /etc/init.d/apache2 restart 我得到了错误 apache2: Syntax error on line 260 of /etc/apa
我关注 this tutorial我找不到本教程第二步的 phpmyadmin.conf。我在/etc/apache2/conf-available/中只有以下文件 charset.conf othe
httpd.conf(/etc/httpd/conf/httpd.conf) 和 ssl.conf(/etc/httpd/conf.d/ssl.conf) 有什么区别 文件? 我正在尝试在我的站点上设
所有配置都被包含在内,并且 conf 测试也通过了。但是 Nginx 仍然提供来自 /usr/share/nginx/html 的默认 HTML。 , 而不是 conf.d 目录中 conf 文件的位
我是 psql 的新手,我遇到了一些我认为是错误放置的 .conf 文件引起的问题。当我尝试登录我之前创建的数据库时出现错误 $ psql corporation psql: could not co
我在 /etc/httpd/conf.d/vhost.conf 中的虚拟主机配置如下所示: NameVirtualHost * ServerName www.example.com
我遵循了教程:http://www.webopius.com/content/355/getting-mamp-working-with-ssl-on-os-x获取 ssl 证书。但是,我无法在 st
是否有一个 spark 属性,我们可以在执行 spark 提交时设置它指定 hadoop 配置路径,专门指向自定义 hdfs-site.xml 和 core-site.xml 文件 最佳答案 首选的方
在NameNode和JobTracker不是同一台服务器的hadoop集群(1.x版本)中,conf/masters和conf/slaves是需要在NameNode和JobTracker上同时指定还是
我从 Here 下载 Redis-x64-3.2.100.zip ,当我提取它时,我看到两个文件 redis.windows.conf 和 redis.windows-service.conf,我比较
我目前正在检查我们的 JBoss AS7.1 服务器配置,我在我们的 jboss/standalone/bin 目录中发现了这两个以前配置的文件: standalone.conf standalone
我一直在使用这个教程http://mpjexpress.blogspot.co.nz/2010/05/executing-and-debugging-mpj-express.html 、文本:步骤 1
我是一名优秀的程序员,十分优秀!