- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
运行spark作业时出现如下错误消息。
Container [pid=140679,containerID=some_container_id] is running beyond physical memory limits. Current usage: 2.3 GB of 2 GB physical memory used; 12.1 GB of 4.2 GB virtual memory used. Killing container.
Dump of the process-tree for some_container_id :
|- PID PPID PGRPID SESSID CMD_NAME USER_MODE_TIME(MILLIS) SYSTEM_TIME(MILLIS) VMEM_USAGE(BYTES) RSSMEM_USAGE(PAGES) FULL_CMD_LINE
|- 140679 140676 140679 140679 (bash) 0 0 118009856 333 /bin/bash -c //bin/java -server -XX:NewRatio=8 -Djava.net.preferIPv4Stack=true -Dhadoop.metrics.log.level=WARN -Xmx200m -Xmx1638m -Dfile.encoding=UTF-8 -Djavax.security.auth.useSubjectCredsOnly=false -Djava.io.tmpdir=./tmp -Djava.io.tmpdir=/data9/nm-local-dir/usercache/appcache/some_application_id/some_container_id/tmp -Dlog4j.configuration=container-log4j.properties -Dyarn.app.container.log.dir=/data11/nm-log-dir/some_application_id/some_container_id -Dyarn.app.container.log.filesize=0 -Dhadoop.root.logger=INFO,CLA -Dhadoop.root.logfile=syslog org.apache.hadoop.mapred.YarnChild 10.126.99.227 41953 attempt_1587100044137_3784279_m_000000_0 59373627899906 1>/data11/nm-log-dir/some_application_id/some_container_id/stdout 2>/data11/nm-log-dir/some_application_id/some_container_id/stderr
|- 140824 140701 140679 140679 (1-script) 0 0 118013952 389 /bin/bash -ex ./some_code.sh params
|- 140861 140824 140679 140679 (java) 4082 485 10257293312 522833 /home1///search-env/package/jdk-1.7.0_80/bin/java -cp /data9/nm-local-dir/usercache//appcache/some_application_id/some_container_id/spark-2.0.2-bin-hadoop2.7//conf/:/data9/nm-local-dir/usercache//appcache/some_application_id/some_container_id/spark-2.0.2-bin-hadoop2.7/jars/*://search-cluster/name.180621/conf/hadoop/:/home1///search-env/package/hadoop-2.7.3.2.6.3.0-r5-centos7/etc/hadoop/://search-cluster/name.180621/env/hadoop-yarn/share/hadoop/common/lib/*://search-cluster/name.180621/env/hadoop-yarn/share/hadoop/common/*://search-cluster/name.180621/env/hadoop-yarn/share/hadoop/hdfs/://search-cluster/name.180621/env/hadoop-yarn/share/hadoop/hdfs/lib/*://search-cluster/name.180621/env/hadoop-yarn/share/hadoop/hdfs/*://search-cluster/name.180621/env/hadoop-yarn/share/hadoop/yarn/lib/*://search-cluster/name.180621/env/hadoop-yarn/share/hadoop/yarn/*:/home1///search-env/package/hadoop-2.7.3.2.6.3.0-r5-centos7/share/hadoop/mapreduce/lib/*:/home1///search-env/package/hadoop-2.7.3.2.6.3.0-r5-centos7/share/hadoop/mapreduce/*:/data9/nm-local-dir/usercache//appcache/some_application_id/some_container_id/:job.jar/job.jar:job.jar/classes/:job.jar/lib/*:/data9/nm-local-dir/usercache//appcache/some_application_id/some_container_id/*:null://search-cluster/name.180621/env/hadoop-yarn/contrib/capacity-scheduler/*.jar:/*.jar -Xmx8g -XX:+UseCompressedOops -verbose:gc -XX:+PrintGCDetails -XX:+PrintGCTimeStamps -XX:MaxPermSize=256m org.apache.spark.deploy.SparkSubmit --master yarn --deploy-mode client --conf spark.eventLog.eventLog.enabled=true --conf spark.executor.extraJavaOptions=-XX:+UseCompressedOops -verbose:gc -XX:+PrintGCDetails -XX:+PrintGCTimeStamps -XX:+PrintHeapAtGC --conf spark.executor.memoryOverhead=3g --conf spark.yarn.am.cores=1 --conf spark.driver.extraJavaOptions=-XX:+UseCompressedOops -verbose:gc -XX:+PrintGCDetails -XX:+PrintGCTimeStamps --conf spark.executor.cores=1 --conf spark.dynamicAllocation.enabled=false --conf spark.executor.instances=200 --conf spark.executor.memory=5g --conf spark.yarn.am.memory=8g --conf spark.eventLog.dir=hdfs://name/user//spark2/logs --conf spark.yarn.historyServer.address=http://discover-name.linecorp.com:11005//shs2/quicklinks/history_server.url --conf spark.driver.memory=8g --conf spark.yarn.maxAppAttempts=1 --conf spark.shuffle.service.enabled=false --class org.apache.spark.sql.hive.thriftserver.SparkSQLCLIDriver --name 1-script.sh --jars /data9/nm-local-dir/usercache//appcache/some_application_id/some_container_id/spark-2.0.2-bin-hadoop2.7//jars/datanucleus-api-jdo-3.2.6.jar,/data9/nm-local-dir/usercache//appcache/some_application_id/some_container_id/spark-2.0.2-bin-hadoop2.7//jars/datanucleus-core-3.2.10.jar,/data9/nm-local-dir/usercache//appcache/some_application_id/some_container_id/spark-2.0.2-bin-hadoop2.7//jars/datanucleus-rdbms-3.2.9.jar,hive-third-functions-2.1.2-shaded.jar --files hive-site.xml#hive-site.xml --queue batch spark-internal -f file
|- 140701 140679 140679 140679 (java) 658 46 2492874752 66786 /home1///search-env/package/jdk-1.7.0_80/bin/java -server -XX:NewRatio=8 -Djava.net.preferIPv4Stack=true -Dhadoop.metrics.log.level=WARN -Xmx200m -Xmx1638m -Dfile.encoding=UTF-8 -Djavax.security.auth.useSubjectCredsOnly=false -Djava.io.tmpdir=./tmp -Djava.io.tmpdir=/data9/nm-local-dir/usercache//appcache/some_application_id/some_container_id/tmp -Dlog4j.configuration=container-log4j.properties -Dyarn.app.container.log.dir=/data11/nm-log-dir/some_application_id/some_container_id -Dyarn.app.container.log.filesize=0 -Dhadoop.root.logger=INFO,CLA -Dhadoop.root.logfile=syslog org.apache.hadoop.mapred.YarnChild 10.126.99.227 41953 attempt_1587100044137_3784279_m_000000_0 59373627899906 Container killed on request. Exit code is 143 Container exited with a non-zero exit code 143.
--conf spark.executor.memory=3g \
--conf spark.executor.memoryOverhead=5g \
--conf spark.yarn.driver.memoryOverhead=3g \
--conf spark.yarn.am.memory=16g \
--conf spark.driver.memory=16g \
最佳答案
如果没有记错的话,这是可用的hdfs内存的多余部分。您可以清空垃圾箱(hdfs帐户根目录中的.trash)。通常,它会在给定的时间内清洗一次。
关于java - 当我的spark作业出现内存不足错误时应该如何调试?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/62059182/
昨晚我因为这个问题脑子崩溃了。在确保没有来 self 的 eclipse 错误检查的明显错误之后,我开始调试我的程序。顺便说一下,我正在使用 Jre7。无论如何,每次我进入我的类调用(我们称之为“a”
(前言:我对 C/C++ 还很陌生,我真的不知道 native 代码中的调试实际上是如何工作的。) 一些消息来源说 gdb 和 lldb 可以调试 any program compiled to ma
我正在尝试从 Visual Studio 2012 外部调试 T4Scaffolding.Core Nuget 包。我使用的是安装了 Powershell 3.0 的 Powershell ISE,并
如何调试汇编代码?我在 Linux 上使用 gdb。我知道我可以看寄存器。有哪些调试汇编代码的方法? 最佳答案 您当然可以使用 breakpoints就像 C 或任何其他编译语言一样。 This ar
如何在每次通话时打印列表或 haskell 中的内容,例如: funct a list = funct (a + 1) (a : list) print list her
让我用我对 Makefiles 或 make 知之甚少的评论作为这个问题的前缀。 有一个非常大的项目,每晚自动构建。它以 Debug 和 Release 模式构建,Debug 用于 Valgrind
我正在创建一个计算每周工资的程序,那么任何加类工资都是该周正常工资的 1.5 倍。我的代码如下: #include int main() { double payrate; double h
我使用的是 Visual Studio 2010 Express Developer 版本。开发网站。我在我的 .aspx 页面中使用 JavaScript。 如何在 Javascript 中放置断点
我最近开始修补 Project Euler 问题,并尝试用 Javascript 解决它们。这样做我往往会产生许多无限循环,现在我想知道是否有比终止 Firefox 或 Chrome 中的选项卡更好的
有没有办法在程序执行期间生成一个交互式 python 控制台(最好是 iPython)而不暂停主程序并且能够检查和修改程序变量?类似于浏览器为 JavaScript 提供的功能。 我知道 pdb.se
我正在使用 FFmpeg @ Android 并希望能够进入 FFmpeg 代码(Eclipse + Seqouya),同时编译 FFmpeg 我使用 --disable-stripping --en
我从使用互操作调用 win32 api 函数的 .net 进程中得到一个异常。 我有一个调试器,我想查看 LastError 的值。 是否可以从 Visual Studio 调试器中查看 LastEr
我正在尝试通过 VBA 创建一个宏,以在 IE 的多个选项卡中打开一组指定的链接。目前我正在使用下面的代码,如果我试图打开 3 个或更少的选项卡,它大部分时间都可以工作。任何超过 3 的代码都会在“N
好的,这似乎是一个愚蠢的问题,因为 MonoDevelop 越来越成熟,所以我确定我只是想念它,但我环顾四周,所有关于这个主题的问题似乎都是关于远程调试或 Mac 上的调试。 我使用的是 Ubuntu
如何调试 Rscripts是从命令行运行的? 我目前正在使用 getopt传递命令行选项的包,当有错误时,我很难: 看看到底出了什么问题; 在 R 中交互式调试(因为脚本需要命令行选项。) 有没有人有
支持 PDF 和网络上的信息很少。我碰巧在博客中看到一篇文章,提到 $.write() 或 $.writeln() 将向 javascript 控制台写入一个字符串。相当有用。有谁知道这个 $ 对象是
PyCharm 1.5 中是否可以使用 Firefox 和 Chrome 支持的 JavaScript 调试? 如果是这样,它能否与 Python/Django 调试器一起有效运行? 如果没有,有没有
我确定这以前发生在人们身上,某些东西在 Debug模式下工作,你在发布时编译,但有些东西坏了。 这发生在我在嵌入式 XP 环境中工作时,我发现最好的方法确实是编写一个日志文件来确定它会出错的地方。 您
我目前正在为即将到来的项目评估 Flow3。 AOP 模式和依赖注入(inject)将非常适合我们的目的。 现在我想不通的是如何在 Controller Action 中调试一些结果。 public
最初,我有一个包含测试服务器的 Django 应用程序。要调试此设置,我只需添加 import pdb; pdb.set_trace()代码中的任何位置,并且有一个断点将我扔到终端中的交互式调试器中(
我是一名优秀的程序员,十分优秀!