gpt4 book ai didi

python - 使用 groupby 进行字数统计然后使用 python 循环时出现问题

转载 作者:太空宇宙 更新时间:2023-11-03 14:20:32 25 4
gpt4 key购买 nike

字数和累计总和

我有一个最多 150 万行的数据集。该数据集是一个时间序列,格式为年份,如下所示。我正在尝试以累积格式计算每年的字符串数。下面的例子:

lodgement_year                trademark_text
1906 PEPS
1906 BILE BEANS FOR BILIOUSNESS B
1906 ZAM-BUK Z

lodgement_year
1906 {PEPS BILE BEANS FOR BILIOUSNESS B ZAM-BUK Z Z...

1907 {WHS CHERUB BLACK & WHITE SOUTHERN CROSS HISTO...

作为初始任务,我对字符串进行了分组,然后使用 xxx 在此论坛中发布的代码在全年中应用了一个循环。当循环工作时,紧接着会出现以下消息:

    The code :

d = df_merge.groupby('lodgement_year')['trademark_text'].apply(lambda x: "{%s}" % ' '.join(x))


for name in d.index:
data = d.loc[name]
ngram_vectorizer = CountVectorizer(analyzer='word',tokenizer=word_tokenize, ngram_range=(1, 1), min_df=1)
X = ngram_vectorizer.fit_transform(data.split('\n'))
vocab = list(ngram_vectorizer.get_feature_names())
counts = X.sum(axis=0).A1
freq_distribution = Counter(dict(zip(vocab, counts)))
print (name, freq_distribution.most_common(10))

错误信息:

回溯(最近一次调用最后一次):

文件“/Users/PycharmProjects/Slice_Time_Series”,第 65 行,位于 X = ngram_vectorizer.fit_transform(data.split('\n'))

文件“/Users/anaconda3/lib/python3.6/site-packages/pandas/core/generic.py”,第 3081 行,getattr 返回对象。getattribute(self, name)AttributeError:“Series”对象没有属性“split”

错误发生之前有效的输出:

 1906 [('.', 24), ("'s", 22), ('star', 18), ('&', 15), ('kodak', 12), ('co', 9), ('the', 9), ('brand', 8), ('express', 8), ('anchor', 6)]
1907 [('&', 11), ("'s", 11), ('brand', 11), ('pinnacle', 7), ('vaseline', 7), ('the', 6), ('.', 5), ('co.', 5), ('kepler', 5), ('lucas', 5)]

任何帮助将不胜感激。作为下一个任务,我尝试创建一个系列,该系列是 1906 年、1906 年加上 1907 年、然后 1906+1907+1908 的总和,我还不知道该怎么做,任何指导也很棒。

伊恩

最佳答案

您可以首先根据 lodgement 变量对 DF 进行分组,然后迭代名称-组对,再进行一次分组,最后加入结果。

import pandas as pd
from collections import Counter
df = pd.DataFrame({'lodg':[1,2,1,3,1,2,2,3,1,1],
'text':['x y z','y y','x y','z x','y x','y y z','x z','x x','x x','y z']})
grouped = df.groupby('lodg')
joined = []
for name, group in grouped:
texts = " ".join(group['text'])
groupCounts = Counter(texts.split(" ")).items()
joined.append([name, [texts], groupCounts])
groupedJoined = pd.DataFrame(joined, columns = ['lodg','texts','textCounts'])

结果:

In [16]: groupedJoined
Out[16]:
lodg texts textCounts
0 1 [x y z x y y x x x y z] [(y, 4), (x, 5), (z, 2)]
1 2 [y y y y z x z] [(y, 4), (x, 1), (z, 2)]
2 3 [z x x x] [(x, 3), (z, 1)]

在显式求解之后,花了一点时间才得出 1 线性 lambda 解。

两个 Lambda:

df.groupby('lodg')['text'].apply(lambda x: "%s" % ' '.join(x)).apply(lambda x: Counter(x.split(" ")).items())

单个 Lambda:

df.groupby('lodg')['text'].apply(lambda x: Counter((' '.join(x)).split(" ")).items())

两者产生相同的结果:

Out[62]: 
lodg
1 [(y, 4), (x, 5), (z, 2)]
2 [(y, 4), (x, 1), (z, 2)]
3 [(x, 3), (z, 1)]
Name: text, dtype: object

现在,如果您不想处理未命名的列(实际上称为索引),请将结果命名为 res,然后执行 res.reset_index() 来得到这个:

In [68]: res.reset_index()
Out[68]:
lodg text
0 1 [(y, 4), (x, 5), (z, 2)]
1 2 [(y, 4), (x, 1), (z, 2)]
2 3 [(x, 3), (z, 1)]

这应该更容易使用。

关于python - 使用 groupby 进行字数统计然后使用 python 循环时出现问题,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/47976858/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com