- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我正在尝试将 .rds
file进入.feather
file用于在 Python 中使用 Pandas 进行阅读。
library(feather)
# Set working directory
data = readRDS("file.rds")
data_year = data[["1986"]]
# Try 1
write_feather(
data_year,
"data_year.feather"
)
# Try 2
write_feather(
as.data.frame(as.matrix(data_year)),
"data_year.feather"
)
Try 1 返回错误:“x”必须是数据框
,Try 2 实际上写入一个 *.feather
文件,但该文件一年的大小为 4.5GB,而原始 *.rds
文件的几年大小为 0.055GB。
如何将每年的文件转换为单独或非单独的 *.feather
文件,同时保持足够的文件大小?
数据
看起来像这样:
data_year
看起来像这样:
*更新
我愿意接受任何有关使数据可在 NumPy/Pandas 中使用同时保持适度文件大小的建议!
最佳答案
也许像下面的函数会有所帮助。
该函数将稀疏矩阵 reshape 为长格式,消除其中的零。这将减少最终的 data.frame 大小和磁盘文件大小。
library(Matrix)
library(feather)
dgcMatrix_to_long_df <- function(x) {
res <- NULL
if(nrow(x) > 0L) {
for(i in 1:nrow(x)){
d <- as.matrix(x[i, , drop = FALSE])
d <- as.data.frame(d)
d$row <- i
d <- tidyr::pivot_longer(d, cols = -row, names_to = "col")
d <- d[d$value != 0,]
res <- rbind(res, d)
}
}
res
}
y <- dgcMatrix_to_long_df(data_year)
head(y)
## A tibble: 6 x 3
# row col value
# <int> <chr> <dbl>
#1 1 Col_0103 51
#2 1 Col_0149 6
#3 1 Col_0188 5
#4 1 Col_0238 89
#5 1 Col_0545 14
#6 1 Col_0547 58
path <- "my_data.feather"
write_feather(y, path)
z <- read_feather(path)
identical(y, z)
#[1] TRUE
# The file size is 232 KB though the initial matrix
# had 1 million elements stored as doubles,
# for a total of 8 MB, a saving of around 97%
file.size(path)/1024
#[1] 232.0234
下面的函数要快得多。
dgcMatrix_to_long_df2 <- function(x) {
res <- NULL
if(nrow(x) > 0L) {
for(i in 1:nrow(x)){
d <- as.matrix(x[i, , drop = FALSE])
inx <- which(d != 0, arr.ind = TRUE)
d <- cbind(inx, value = c(d[d != 0]))
d[, "row"] <- i
res <- rbind(res, d)
}
}
as.data.frame(res)
}
system.time(y <- dgcMatrix_to_long_df(data_year))
# user system elapsed
# 7.89 0.04 7.92
system.time(y <- dgcMatrix_to_long_df2(data_year))
# user system elapsed
# 0.14 0.00 0.14
set.seed(2022)
n <- 1e3
x <- rep(0L, n*n)
inx <- sample(c(FALSE, TRUE), n*n, replace = TRUE, prob = c(0.99, 0.01))
x[inx] <- sample(100, sum(inx), replace = TRUE)
data_year <- Matrix(x, n, n, dimnames = list(NULL, sprintf("Col_%04d", 1:n)))
关于python - 转换为 FEATHER 文件会创建巨大的文件,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/70811880/
我通过在共享首选项中使用 GSON 将其转换为 json 来存储我的复杂对象。但是在检索它时,无法获得预期的字符串。 代码 这里 holderListCustomizationMap 是对象的复杂映射
因此,我正在尝试对大于可用RAM的gz压缩文件执行某种面向行的操作,因此排除了将其首先读取为字符串的情况。问题是,如何在rust(缺少gunzip file.gz|./my-rust-program)
我试图更好地理解为什么具有潜在大精度的大数字处理不一致,特别是在 JavaScript 及其本地化工具(例如 ECMA-402/Intl)中。我假设这与 float 的使用有关,但我想了解限制在哪里和
我们有一个 5GB 的 csv 文件,这是我们业务的主列表。 有多个类别,每个类别包含数千条记录。我们的目标是将每个类别导出为其自己的 csv 文件。 我们如何运行查询并导出数据? 运行 OSX。有没
基于上一个问题 ( see here ),我试图通过 xmlEventParse 读取许多大型 xml 文件,同时保存节点变化数据。使用此示例 xml:https://www.nlm.nih.gov/
我正在开发一个系统,它加载一个巨大的 CSV 文件(超过 100 万行)并保存到数据库中。每行也有超过一千个字段。 CSV 文件被视为一个批处理,每一行都被视为其子对象。在添加对象的过程中,每个对象都
借助node-google模块 我编写了一个简单的 Node 模块来为我的网络应用程序启用“文本网络搜索”功能,并在我的一个 View 中显示结果。 由于在来自同一 IP 的少量查询后 Google
我有相当大的 4D 阵列 [20x20x40x15000],我使用 h5py 将其作为 HDF5 文件保存到磁盘.现在的问题是我想计算整个数组的平均值,即使用: numpy.average(HDF5_
我在遗留代码库中连接巨大的 CString 时遇到问题。 CStrings 可以包含 base64 编码的文件,因此可能很大。在某些时候,这些 CString 会像这样连接起来: result +=
我正在尝试让我的服务器提供来自另一台服务器的巨大文件。但是,为了保护我的凭据免受该远程服务器的攻击,我不能简单地将请求者重定向到文件 url;另一方面,虽然使用 StreamingHttpRespon
感谢对此的任何见解,我有 2 个问题: 1) 弄清楚为什么我的本地数据库 oplog 庞大且不断增长 2) 安全删除(或重置)我的 local.oplog 以释放 18 GB 的浪费空间 场景:我一直
我的预期任务:获取大量数据(1 GB 及更多大小)json 字符串,操作(进行一些格式化、解析 json、重组 json 数据)并写入新格式化的 json 字符串作为响应。处理这种情况的更好方法是什么
我做了一个小的 Angular 4 应用程序,但我不知道如何应用 tree shaking 和 aot 编译。我运行的命令如下: ng build --prod --aot 但我得到的结果仍然很大,供
我是一名优秀的程序员,十分优秀!