- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我有一个包含 700.000 多行的数据框 (myDF),每行有两列,id 和 text。该文本有 140 个字符的文本(推文),我想对我从网上获得的情感分析进行分析。但是,无论我尝试什么,我在带有 4gb ram 的 macbook 上都有内存问题。
我在想也许我可以遍历行,例如做前 10 个,然后做第二个 10...等等。 (即使批量为 100,我也会遇到问题)这会解决问题吗?以这种方式循环的最佳方式是什么?
我在这里发布我的代码:
library(plyr)
library(stringr)
# function score.sentiment
score.sentiment = function(sentences, pos.words, neg.words, .progress='none')
{
# Parameters
# sentences: vector of text to score
# pos.words: vector of words of postive sentiment
# neg.words: vector of words of negative sentiment
# .progress: passed to laply() to control of progress bar
# create simple array of scores with laply
scores = laply(sentences,
function(sentence, pos.words, neg.words)
{
# split sentence into words with str_split (stringr package)
word.list = str_split(sentence, "\\s+")
words = unlist(word.list)
# compare words to the dictionaries of positive & negative terms
pos.matches = match(words, pos.words)
neg.matches = match(words, neg.words)
# get the position of the matched term or NA
# we just want a TRUE/FALSE
pos.matches = !is.na(pos.matches)
neg.matches = !is.na(neg.matches)
# final score
score = sum(pos.matches)- sum(neg.matches)
return(score)
}, pos.words, neg.words, .progress=.progress )
# data frame with scores for each sentence
scores.df = data.frame(text=sentences, score=scores)
return(scores.df)
}
# import positive and negative words
pos = readLines("positive_words.txt")
neg = readLines("negative_words.txt")
# apply function score.sentiment
myDF$scores = score.sentiment(myDF$text, pos, neg, .progress='text')
最佳答案
4 GB 听起来足以存储 700,000 个 140 个字符的句子。另一种计算情绪分数的方法可能更节省内存和时间,并且/或更容易分成 block 。不是处理每个句子,而是将整组句子分解成单词
words <- str_split(sentences, "\\s+")
然后确定每个句子中有多少个单词,并创建一个单词向量
len <- sapply(words, length)
words <- unlist(words, use.names=FALSE)
通过重新使用 words
变量我释放了以前使用的内存用于重新循环(不需要显式调用垃圾收集器,这与 @cryo111 中的建议相反!)。你可以找到一个词是否在pos.words
中与否,不用担心 NA,使用 words %in% pos.words
.但是我们可以聪明一点,计算这个逻辑向量的累积和,然后在每个句子的最后一个单词处对累积和进行子集
cumsum(words %in% pos.words)[len]
并计算单词数作为这个的导数
pos.match <- diff(c(0, cumsum(words %in% pos.words)[len]))
这是 pos.match
你分数的一部分。所以
scores <- diff(c(0, cumsum(words %in% pos.words)[len])) -
diff(c(0, cumsum(words %in% neg.words)[len]))
就是这样。
score_sentiment <-
function(sentences, pos.words, neg.words)
{
words <- str_split(sentences, "\\s+")
len <- sapply(words, length)
words <- unlist(words, use.names=FALSE)
diff(c(0, cumsum(words %in% pos.words)[len])) -
diff(c(0, cumsum(words %in% neg.words)[len]))
}
这里的目的是一次性处理所有句子
myDF$scores <- score_sentiment(myDF$text, pos, neg)
这避免了 for 循环,虽然与 lapply
相比本质上并不低效和 friend 如果正确实现如@joran 所示,与矢量化解决方案相比效率非常低。大概 sentences
不会在这里被复制,返回(只是)分数不会浪费内存返回我们已经知道的信息(句子)。最大的内存将是 sentences
和 words
.
如果内存仍然是个问题,那么我会创建一个索引,可以用来将文本分成更小的组,并计算每个组的分数
nGroups <- 10 ## i.e., about 70k sentences / group
idx <- seq_along(myDF$text)
grp <- split(idx, cut(idx, nGroups, labels=FALSE))
scorel <- lapply(grp, function(i) score_sentiment(myDF$text[i], pos, neg))
myDF$scores <- unlist(scorel, use.names=FALSE)
首先确保myDF$text
实际上是一个字符,例如 myDF$test <- as.character(myDF$test)
关于R:内存不足,如何遍历行?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/16267477/
我正在从 Stata 迁移到 R(plm 包),以便进行面板模型计量经济学。在 Stata 中,面板模型(例如随机效应)通常报告组内、组间和整体 R 平方。 I have found plm 随机效应
关闭。这个问题不符合Stack Overflow guidelines .它目前不接受答案。 想改进这个问题?将问题更新为 on-topic对于堆栈溢出。 6年前关闭。 Improve this qu
我想要求用户输入整数值列表。用户可以输入单个值或一组多个值,如 1 2 3(spcae 或逗号分隔)然后使用输入的数据进行进一步计算。 我正在使用下面的代码 EXP <- as.integer(rea
当 R 使用分类变量执行回归时,它实际上是虚拟编码。也就是说,省略了一个级别作为基础或引用,并且回归公式包括所有其他级别的虚拟变量。但是,R 选择了哪一个作为引用,以及我如何影响这个选择? 具有四个级
这个问题基本上是我之前问过的问题的延伸:How to only print (adjusted) R-squared of regression model? 我想建立一个线性回归模型来预测具有 15
我在一台安装了多个软件包的 Linux 计算机上安装了 R。现在我正在另一台 Linux 计算机上设置 R。从他们的存储库安装 R 很容易,但我将不得不使用 安装许多包 install.package
我正在阅读 Hadley 的高级 R 编程,当它讨论字符的内存大小时,它说: R has a global string pool. This means that each unique strin
我们可以将 Shiny 代码写在两个单独的文件中,"ui.R"和 "server.R" , 或者我们可以将两个模块写入一个文件 "app.R"并调用函数shinyApp() 这两种方法中的任何一种在性
我正在使用 R 通过 RGP 包进行遗传编程。环境创造了解决问题的功能。我想将这些函数保存在它们自己的 .R 源文件中。我这辈子都想不通怎么办。我尝试过的一种方法是: bf_str = print(b
假设我创建了一个函数“function.r”,在编辑该函数后我必须通过 source('function.r') 重新加载到我的全局环境中。无论如何,每次我进行编辑时,我是否可以避免将其重新加载到我的
例如,test.R 是一个单行文件: $ cat test.R # print('Hello, world!') 我们可以通过Rscript test.R 或R CMD BATCH test.R 来
我知道我可以使用 Rmd 来构建包插图,但想知道是否可以更具体地使用 R Notebooks 来制作包插图。如果是这样,我需要将 R Notebooks 编写为包小插图有什么不同吗?我正在使用最新版本
我正在考虑使用 R 包的共享库进行 R 的站点安装。 多台计算机将访问该库,以便每个人共享相同的设置。 问题是我注意到有时您无法更新包,因为另一个 R 实例正在锁定库。我不能要求每个人都关闭它的 R
我知道如何从命令行启动 R 并执行表达式(例如, R -e 'print("hello")' )或从文件中获取输入(例如, R -f filename.r )。但是,在这两种情况下,R 都会运行文件中
我正在尝试使我当前的项目可重现,因此我正在创建一个主文档(最终是一个 .rmd 文件),用于调用和执行其他几个文档。这样我自己和其他调查员只需要打开和运行一个文件。 当前设置分为三层:主文件、2 个读
关闭。这个问题不符合Stack Overflow guidelines .它目前不接受答案。 想改进这个问题?将问题更新为 on-topic对于堆栈溢出。 5年前关闭。 Improve this qu
我的 R 包中有以下描述文件 Package: blah Title: What the Package Does (one line, title case) Version: 0.0.0.9000
有没有办法更有效地编写以下语句?accel 是一个数据框。 accel[[2]]<- accel[[2]]-weighted.mean(accel[[2]]) accel[[3]]<- accel[[
例如,在尝试安装 R 包时 curl作为 usethis 的依赖项: * installing *source* package ‘curl’ ... ** package ‘curl’ succes
我想将一些软件作为一个包共享,但我的一些脚本似乎并不能很自然地作为函数运行。例如,考虑以下代码块,其中“raw.df”是一个包含离散和连续类型变量的数据框。函数“count.unique”和“squa
我是一名优秀的程序员,十分优秀!