gpt4 book ai didi

r - 使用R中的arules包对重复交易进行关联分析

转载 作者:行者123 更新时间:2023-12-04 13:16:50 25 4
gpt4 key购买 nike

我想创建篮子格式的交易对象,可以随时调用进行分析。数据包含带有1001个事务的逗号分隔的项目。前10个事务如下所示:

hering,corned_b,olives,ham,turkey,bourbon,ice_crea
baguette,soda,hering,cracker,heineken,olives,corned_b
avocado,cracker,artichok,heineken,ham,turkey,sardines
olives,bourbon,coke,turkey,ice_crea,ham,peppers
hering,corned_b,apples,olives,steak,avocado,turkey
sardines,heineken,chicken,coke,ice_crea,peppers,ham
olives,bourbon,coke,turkey,ice_crea,heineken,apples
corned_b,peppers,bourbon,cracker,chicken,ice_crea,baguette
soda,olives,bourbon,cracker,heineken,peppers,baguette
corned_b,peppers,bourbon,cracker,chicken,bordeaux,hering
...

我观察到数据中存在重复的事务,并删除了它们,但是每次尝试读取事务时,都会得到:

asMethod(object)中的错误:
无法强制使用重复项的交易列出 list

这是我的代码:
data <- read.csv("AssociationsItemList.txt",header=F)
data <- data[!duplicated(data),]
pop <- NULL
for(i in 1:length(data)){
pop <- paste(pop, data[i],sep="\n")
}
write(pop, file = "Trans", sep = ",")
transdata <- read.transactions("Trans", format = "basket", sep=",")

我敢肯定,我错过了一些重要的东西。请提供您的协助。

最佳答案

问题不在于重复的事​​务(同一行出现两次)
但重复的商品(同一商品在同一笔交易中出现两次)
例如第4行的“橄榄”。
read.transactions具有rm.duplicates参数来删除这些重复项。

read.transactions("Trans", format = "basket", sep=",", rm.duplicates=TRUE)

关于r - 使用R中的arules包对重复交易进行关联分析,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/17149610/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com