gpt4 book ai didi

python - 在 python 中处理大型数据集的最佳方式

转载 作者:太空宇宙 更新时间:2023-11-04 05:29:43 25 4
gpt4 key购买 nike

我正在处理一个大型金融数据集(目前为 15 GB,但稍后将达到 200 GB)。使用它的最佳方式是什么。特别是,我想做一些统计测试并使用毫秒数据生成一些图表。到目前为止,我已经使用 sqlite3 来简化操作,但它似乎无法处理文件的大小。我正在使用 PyCharm(不确定是否有帮助)

最佳答案

如果您想管理大量数据,sqlite 不是一个好的选择(实际上我不会将 sqlite 用于原型(prototype)设计或运行测试以外的其他事情)。

您可以尝试使用amazon RDS来存储数据库http://aws.amazon.com/es/rds/并在亚马逊提供的数据库引擎之一中进行选择。

至于使用 Python,我认为你应该让数据库引擎处理请求,而只使用 python 来生成图形。

关于python - 在 python 中处理大型数据集的最佳方式,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/37521956/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com