- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
考虑数据:
library(data.table)
library(magrittr)
vec1 <- c("Iron", "Copper")
vec2 <- c("Defective", "Passed", "Error")
set.seed(123)
a1 <- sample(x = vec1, size = 20, replace = T)
b1 <- sample(x = vec2, size = 20, replace = T)
set.seed(1234)
a2 <- sample(x = vec1, size = 20, replace = T)
b2 <- sample(x = vec2, size = 20, replace = T)
DT <- data.table(
c(1:20), a1, b1, a2, b2
) %>% .[order(V1)]
names(DT) <- c("id", "prod_name_1", "test_1", "prod_name_2", "test_2")
我需要过滤 test_1
或 test_2
值为“通过”
的行。因此,如果这些列都没有指定的值,则删除该行。通过dplyr
,我们可以使用filter_at()
动词:
> # dplyr solution...
>
> cols <- grep(x = names(DT), pattern = "test", value = T, ignore.case = T)
>
>
> DT %>%
+ dplyr::filter_at(.vars = grep(x = names(DT), pattern = "test", value = T, ignore.case = T),
+ dplyr::any_vars(. == "Passed")) -> DT.2
>
> DT.2
id prod_name_1 test_1 prod_name_2 test_2
1 3 Iron Passed Copper Defective
2 5 Copper Passed Copper Defective
3 7 Copper Passed Iron Passed
4 8 Copper Passed Iron Error
5 11 Copper Error Copper Passed
6 14 Copper Error Copper Passed
7 16 Copper Passed Copper Error
酷。在 data.table
中是否有类似的方法来执行此操作?
这是我得到的最接近的:
> lapply(seq_along(cols), function(x){
+
+ setkeyv(DT, cols[[x]])
+
+ DT["Passed"]
+
+ }) %>%
+ do.call(rbind,.) %>%
+ unique -> DT.3
>
> DT.3
id prod_name_1 test_1 prod_name_2 test_2
1: 3 Iron Passed Copper Defective
2: 5 Copper Passed Copper Defective
3: 8 Copper Passed Iron Error
4: 16 Copper Passed Copper Error
5: 7 Copper Passed Iron Passed
6: 11 Copper Error Copper Passed
7: 14 Copper Error Copper Passed
>
> identical(data.table(DT.2)[order(id)], DT.3[order(id)])
[1] TRUE
你们有更优雅的解决方案吗?最好是包含在诸如 dplyr::filter_at()
之类的动词中的内容。
最佳答案
我们可以在.SDcols
中指定'cols',循环遍历Data.table的子集(.SD
)来比较该值是否“通过”,使用 |
将其减少
为单个向量
,并对行进行子集化
res2 <- DT[DT[, Reduce(`|`, lapply(.SD, `==`, "Passed")), .SDcols = cols]]
与OP帖子中的dplyr
输出进行比较
identical(as.data.table(res1), res2)
#[1] TRUE
关于r - data.table 相当于 dplyr::filter_at,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/48668509/
我有以下数据框: library(dplyr) df % rename_all(funs(stringr::str_replace_all(., "gh", "v"))) 我想结合使用 renam
我有以下数据框: library(dplyr) df % rename_all(funs(stringr::str_replace_all(., "gh", "v"))) 我想结合使用 renam
我有一个数据( df_1 ): df_1 % select_at(.vars = 'var_1') var_1 1 99.47262 10 25.91552 没关系。但: df_1
我正在尝试安装dplyr软件包,但收到一条错误消息,提示“库(dplyr)中存在错误:没有名为dplyr的软件包”。我正在使用窗口系统和Ri386 3.5.2。我尝试按照其他人的建议使用代码insta
假设我想以并行方式申请 myfunction到 myDataFrame 的每一行.假设 otherDataFrame是一个包含两列的数据框:COLUNM1_odf和 COLUMN2_odf出于某些原因
我目前正在构建一个包,我想知道是否有办法调用 %>%来自 dplyr 的操作符,而无需实际附加 dplyr 包。例如,对于从包中导出的任何函数,您可以使用双冒号 ( :: ) 调用它。所以如果我想使用
library(dplyr) mtcars %>% group_by(vs) %>% do(tt=t.test(mpg~am, data=.)) %>% mutate(t=tt$statist
我正在尝试为一组标准曲线构建一系列线性模型。 目前这段代码正在产生我想要的输出(每个线性模型的截距和斜率): slopes % group_by(plate, col, row, conc_ug_mL
我正在寻找替换我的一些使用 dplyr::do 的 R 代码,因为这个函数很快就会被弃用。我的很多工作都需要创建分层 CDF 图。使用 dply:do 时,我分层的变量作为变量传递给结果数据框,然后我
问题 我正在尝试使用 dplyr::mutate()和 dplyr::case_when()在数据框中创建新的数据列,该列使用存储在另一个对象(“查找列表”)中的数据填充,并基于数据框中列中的信息。
最近我发现了很棒的 dplyr.spark.hive启用 dplyr 的软件包前端操作 spark或 hive后端。 在包的 README 中有关于如何安装此包的信息: options(repos =
我正在尝试在 dplyr 链中使用 data.frame 两次。这是一个给出错误的简单示例 df % group_by(Type) %>% summarize(X=n()) %>% mu
当我浏览答案时 here , 我找到了 this solution与 data.frame 完全符合预期. library(dplyr) # dplyr_0.4.3 library(data.tab
我的数据来自一个数据库,根据我运行 SQL 查询的时间,该数据库可能包含一周到另一周不同的 POS 值。 不知道哪些值将在变量中使得自动创建报告变得非常困难。 我的数据如下所示: sample % p
我想定义与“扫帚”包中类似的功能 library(dplyr) library(broom) mtcars %>% group_by(am) %>% do(model = lm(mpg ~ w
set.seed(123) df % group_by(id) %>% mutate(roll.sum = c(x[1:4], zoo::rollapply(x, 5, sum))) # Groups
先来个样本数据 set.seed(123) dat 1 -4 2 6 3 -2 4
我有一个带列的数据框 x1, x2, group我想生成一个带有额外列的新数据框 rank表示x1的顺序在其组中。 有相关问题here ,但已接受的答案似乎不再有效。 到这里为止,很好: librar
我有一个示例 df,如下所示: d% group_by(CaseNo) %>% arrange(desc(Submissiondate)) %>% dplyr::mutate(rank = row_n
我有一个数据框,其中包含一些数据输入错误。 我希望将每组的这些异常值替换为每组最常见的值。 我的数据如下: df % group_by(CODE) %>% mutate(across(c(DOSAGE
我是一名优秀的程序员,十分优秀!