- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
更新:请保留这个问题。我发现这可能是Spark 1.5本身的问题,因为我没有使用Spark的官方版本。我会不断更新这个问题。谢谢!
我最近在 Spark 中使用 Spark-CSV 将 CSV 导入到 DataFrame 时注意到一个奇怪的错误。
这是我的示例代码:
object sparktry
{
def main(args: Array[String])
{
AutoLogger.setLevel("INFO")
val sc = SingletonSparkContext.getInstance()
val sql_context = SingletonSQLContext.getInstance(sc)
val options = new collection.mutable.HashMap[String, String]()
options += "header" -> "true"
options += "charset" -> "UTF-8"
val customSchema = StructType(Array(
StructField("Year", StringType),
StructField("Brand", StringType),
StructField("Category", StringType),
StructField("Model", StringType),
StructField("Sales", DoubleType)))
val dataFrame = sql_context.read.format("com.databricks.spark.csv")
.options(options)
.schema(customSchema)
.load("hdfs://myHDFSserver:9000/BigData/CarSales.csv")
dataFrame.head(10).foreach(x => AutoLogger.info(x.toString))
}
}
CarSales 是一个非常小的 csv。我注意到,当 spark.master
不是 local
时,将 spark.executor.memory
设置为高于 16GB 将导致 DataFrame 损坏。该程序的输出如下所示:(我从日志中复制了文本,在本例中 spark.executor.memory
设置为 32GB)
16/03/07 12:39:50.190 INFO DAGScheduler: Job 1 finished: head at sparktry.scala:35, took 8.009183 s
16/03/07 12:39:50.225 INFO AutoLogger$: [ , , ,ries ,142490.0]
16/03/07 12:39:50.225 INFO AutoLogger$: [ , , ,ries ,112464.0]
16/03/07 12:39:50.226 INFO AutoLogger$: [ , , ,ries ,90960.0]
16/03/07 12:39:50.226 INFO AutoLogger$: [ , , ,ries ,100910.0]
16/03/07 12:39:50.226 INFO AutoLogger$: [ , , ,ries ,94371.0]
16/03/07 12:39:50.226 INFO AutoLogger$: [ , , ,ries ,54142.0]
16/03/07 12:39:50.226 INFO AutoLogger$: [ , , ,ries ,14773.0]
16/03/07 12:39:50.226 INFO AutoLogger$: [ , , ,ries ,12276.0]
16/03/07 12:39:50.227 INFO AutoLogger$: [ , , ,ries ,9254.0]
16/03/07 12:39:50.227 INFO AutoLogger$: [ , , ,ries ,12253.0]
文件的前 10 行是:
1/1/2007,BMW,Compact,BMW 3-Series,142490.00
1/1/2008,BMW,Compact,BMW 3-Series,112464.00
1/1/2009,BMW,Compact,BMW 3-Series,90960.00
1/1/2010,BMW,Compact,BMW 3-Series,100910.00
1/1/2011,BMW,Compact,BMW 3-Series,94371.00
1/1/2007,BMW,Compact,BMW 5-Series,54142.00
1/1/2007,BMW,Fullsize,BMW 7-Series,14773.00
1/1/2008,BMW,Fullsize,BMW 7-Series,12276.00
1/1/2009,BMW,Fullsize,BMW 7-Series,9254.00
1/1/2010,BMW,Fullsize,BMW 7-Series,12253.00
我注意到,在我的机器上仅将 spark.executor.memory
更改为 16GB,前 10 行是正确的,但将其设置为超过 16GB 将导致损坏。
此外:在我的一台具有 256GB 内存的服务器上,将其设置为 16GB 也会产生此错误。相反,将其设置为 48GB 将使其正常工作。另外,我尝试打印dataFrame.rdd
,它表明RDD的内容是正确的,而dataframe本身则不正确。
有人知道这个问题吗?
谢谢!
最佳答案
事实证明,这是 Spark 1.5.1 和 1.5.2 中使用 Kyro 进行序列化时的一个错误。
https://github.com/databricks/spark-csv/issues/285#issuecomment-193633716
此问题已在 1.6.0 中修复。与spark-csv无关。
关于csv - 如果将 CSV 导入到 DataFrame 时未正确设置 Spark.executor.memory,则字符会损坏,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/35836596/
在 ARM 中,内存类型指定为: 正常 设备 强烈有序 在Device type里面,好像这个类型也可以区分 不可共享的设备内存 可共享设备内存 不可共享和可共享设备内存有什么区别?我们如何分别使用这
在 ARM 中,内存类型指定为: 正常 设备 强烈有序 在Device type里面,好像这个类型也可以区分 不可共享的设备内存 可共享设备内存 不可共享和可共享设备内存有什么区别?我们如何分别使用这
This diagram很清楚不同YARN和Spark内存相关设置之间的关系,除了spark.python.worker.memory。 spark.python.worker.memory 如何适应
我正在尝试使用复杂的if-else决策树来实现GLSL片段着色器。不幸的是,着色器编译器很早就失败,并出现“语法错误-内存耗尽”错误。 GLSL中的代码大小或决策树深度是否有任何限制?有什么建议如何克
什么是“标记内存”,它如何帮助减小程序大小? 最佳答案 您可能指的是 tagged union ,或更具体地说是硬件实现,如 LISP 机器中使用的标记架构。基本上是一种存储具有类型信息的数据的方法。
我的内存有问题。我不明白为什么当我的程序长时间运行时 Go 使用越来越多的内存(从不释放它)。 第一次分配后,程序使用了将近 9 MB 的内存。然后在 12 小时后,它开始以指数方式使用更多内存,直到
在 Windows 机器上,MATLAB 用户可以使用 memory或 feature memstats命令。但是,这些都不能在机器上工作,失败如下: >> memory??? Error using
引导 Linux 内核时,可以在 RAM 中加载 initramfs 存档和 DTB 文件,并将这些物理地址指定给内核。例如,使用 U-Boot,您可以执行以下操作: bootz 0x80008000
我正在学习虚拟内存的概念,但是这个问题让我困惑了一段时间。由于大多数现代计算机都使用虚拟内存,因此当程序正在执行时,操作系统应该在 RAM 和磁盘之间将数据分页进出。但为什么我们仍然遇到“内存不足”的
我在 Colab Pro+(使用高 RAM 选项)上运行神经网络时发现了这个问题。 运行时错误:CUDA 内存不足。尝试分配 8.00 GiB(GPU 0;15.90 GiB 总容量;12.04 Gi
当我在任何地方阅读基于操作系统的书籍时,考虑到时间限制和开销很高,从内存和 I\O(子系统)获取数据是昂贵的,这就是为什么在某些硬件制造商中提供一些其他方式来访问它们,如ARM7 some ISAs像
据我所知,ADS v.10 尝试将查询结果保留在内存中,直到它变得非常大。对于 __output 表和临时表也应该如此。当结果变大时,交换声明。 问题是为查询、 worker 等设置了什么内存限制?可
序言 我正在写一个小演示文稿来列出使用 Docker 时的一些“陷阱”,我也遇到了自己的一个问题。 在解释让 Docker 在没有内存限制的情况下运行的危险时,我发现它的行为不像我预期的那样。 我使用
我们有一个 ASP.NET 项目(40 个左右的 Web 表单、50 个表、相当标准的 IO 内容,并尽可能减少),很快需要部署。系统上大约有 100 个并发用户,但任何时候只有大约 20 个用户在使
我在 dotcloud 上使用 redis 内存存储,但尽管 key 已过期,但它的 used_memory 再也不会下降。从 redis-cli 使用 flushdb 或 flushall 不会导致
我使用的是 Xcode 10.2.1 和 macOS Catalina Developer Beta 2。每当我尝试使用内存图调试器时,我都会收到此错误: Memory Graph Debugger:
所以我一直在寻找这个问题的解决方案有一段时间了。我编写了一个程序来从两个单独的文本文件中获取数据,对其进行解析,然后输出到另一个文本文件和一个 ARFF 文件以供 Weka 分析。我遇到的问题是我编写
对不起,我对 erlang 文档中的以下描述不太清楚: erlang:memory() -> [{Type, Size}] with Type: "total" means: "The total a
在查看示例合约时,有时会在带有“内存”的方法中声明数组,有时则不会。有什么区别? 最佳答案 如果没有内存关键字,Solidity会尝试在存储中声明变量。 首席 Solidity 开发者 chriset
我不明白Matlab并行计算工具箱中的parfor cicle是如何与内存一起工作的:我读到它在所有worker之间共享内存(然后我认为每个worker(核心)都可以访问感兴趣的内存位置而无需制作本地
我是一名优秀的程序员,十分优秀!