- android - 多次调用 OnPrimaryClipChangedListener
- android - 无法更新 RecyclerView 中的 TextView 字段
- android.database.CursorIndexOutOfBoundsException : Index 0 requested, 光标大小为 0
- android - 使用 AppCompat 时,我们是否需要明确指定其 UI 组件(Spinner、EditText)颜色
我正在按照以下 stackoverflow 问题的答案来完成我的任务,如下所示。 python list group by first character
import json
from itertools import groupby
#Load data
with open('input.txt', 'r') as f:
concepts = []
for concept in f:
concepts.append(concept.strip())
print(len(concepts))
concepts_list = [list(g) for k, g in groupby(concepts, key=lambda x: x[0])]
concepts_dict = {}
for item in concepts_list:
concepts_dict[item[0][0]] = item
with open("concepts_preprocessed_dictionary.txt", "w") as fw:
fw.write(json.dumps(concepts_dict))
但是,我想知道为什么当列表中有大量概念(大约 13,000,000 个概念)时此代码不起作用。令人惊讶的是,该程序在几秒钟内执行,当我检查字典时,它包含错误的结果(换句话说,字典文件只有 1KB 大小,每个分组列表主要包含一个或两个元素)。
很遗憾,我无法分享我的概念列表,因为它违反了一些隐私问题。
但我在下面的 github 页面中发现了一个很长的单词列表:https://raw.githubusercontent.com/dwyl/english-words/master/words.txt
但是,与上面提到的数据集不同,我当前的数据集仅按字母顺序按第一个字符排序(即如下)
我的数据集:只有第一个字母是m
,但其余单词没有按字母顺序排列
我提到的数据集:根据字符很好地排序
如果需要任何进一步的详细信息,请告诉我。
最佳答案
您实际上不需要使用 groupby
来执行此操作。
考虑您的链接示例:
list1=['hello','hope','hate','hack','bit','basket','code','come','chess']
您可以创建使用 native Python 字典描述的组:
groups={}
for word in list1:
groups.setdefault(word[0],[]).append(word)
>>> groups
{'h': ['hello', 'hope', 'hate', 'hack'], 'b': ['bit', 'basket'], 'c': ['code', 'come', 'chess']}
或者,如果您愿意,可以使用 defaultdict
:
from collections import defaultdict
groups=defaultdict(list)
for word in list1:
groups[word[0]].append(word)
>>> groups
defaultdict(<class 'list'>, {'h': ['hello', 'hope', 'hate', 'hack'], 'b': ['bit', 'basket'], 'c': ['code', 'come', 'chess']})
这两种方法都适用于完全未排序的数据,并根据首字母收集单词。然后,如果需要,您可以自由使用该字典的值来制作列表列表:
>>> sorted(groups.values(), key=lambda s: s[0])
[['bit', 'basket'], ['code', 'come', 'chess'], ['hello', 'hope', 'hate', 'hack']]
现在,如果您仍然出于某种原因想要使用groupby
,您可能会这样做:
groups={}
for k,v in groupby(list1, key=lambda s: s[0]):
groups.setdefault(k,[]).extend(v)
关于python - 如何通过python中的第一个字符在一个巨大的列表中有效地对元素进行分组,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/54083393/
我通过在共享首选项中使用 GSON 将其转换为 json 来存储我的复杂对象。但是在检索它时,无法获得预期的字符串。 代码 这里 holderListCustomizationMap 是对象的复杂映射
因此,我正在尝试对大于可用RAM的gz压缩文件执行某种面向行的操作,因此排除了将其首先读取为字符串的情况。问题是,如何在rust(缺少gunzip file.gz|./my-rust-program)
我试图更好地理解为什么具有潜在大精度的大数字处理不一致,特别是在 JavaScript 及其本地化工具(例如 ECMA-402/Intl)中。我假设这与 float 的使用有关,但我想了解限制在哪里和
我们有一个 5GB 的 csv 文件,这是我们业务的主列表。 有多个类别,每个类别包含数千条记录。我们的目标是将每个类别导出为其自己的 csv 文件。 我们如何运行查询并导出数据? 运行 OSX。有没
基于上一个问题 ( see here ),我试图通过 xmlEventParse 读取许多大型 xml 文件,同时保存节点变化数据。使用此示例 xml:https://www.nlm.nih.gov/
我正在开发一个系统,它加载一个巨大的 CSV 文件(超过 100 万行)并保存到数据库中。每行也有超过一千个字段。 CSV 文件被视为一个批处理,每一行都被视为其子对象。在添加对象的过程中,每个对象都
借助node-google模块 我编写了一个简单的 Node 模块来为我的网络应用程序启用“文本网络搜索”功能,并在我的一个 View 中显示结果。 由于在来自同一 IP 的少量查询后 Google
我有相当大的 4D 阵列 [20x20x40x15000],我使用 h5py 将其作为 HDF5 文件保存到磁盘.现在的问题是我想计算整个数组的平均值,即使用: numpy.average(HDF5_
我在遗留代码库中连接巨大的 CString 时遇到问题。 CStrings 可以包含 base64 编码的文件,因此可能很大。在某些时候,这些 CString 会像这样连接起来: result +=
我正在尝试让我的服务器提供来自另一台服务器的巨大文件。但是,为了保护我的凭据免受该远程服务器的攻击,我不能简单地将请求者重定向到文件 url;另一方面,虽然使用 StreamingHttpRespon
感谢对此的任何见解,我有 2 个问题: 1) 弄清楚为什么我的本地数据库 oplog 庞大且不断增长 2) 安全删除(或重置)我的 local.oplog 以释放 18 GB 的浪费空间 场景:我一直
我的预期任务:获取大量数据(1 GB 及更多大小)json 字符串,操作(进行一些格式化、解析 json、重组 json 数据)并写入新格式化的 json 字符串作为响应。处理这种情况的更好方法是什么
我做了一个小的 Angular 4 应用程序,但我不知道如何应用 tree shaking 和 aot 编译。我运行的命令如下: ng build --prod --aot 但我得到的结果仍然很大,供
我是一名优秀的程序员,十分优秀!