gpt4 book ai didi

Python心理实验需要(简单)数据库: please advise

转载 作者:太空狗 更新时间:2023-10-30 00:23:43 25 4
gpt4 key购买 nike

我正在用 Python 编写一个心理学实验。我需要将用户信息和分数存储在某个地方,并且我需要它作为 Web 应用程序工作(并且是安全的)。

对此了解不多 - 我正在考虑 XML 数据库、BerkleyDB、sqlite、openoffice 电子表格,或者我对 python“shelve”库非常感兴趣。(我的大部分信息来自这个线程:http://developers.slashdot.org/story/08/05/20/2150246/FOSS-Flat-File-Database

数据:我认为我将拥有最多 1000 个用户。对于我必须存储的每个用户...

  • 用户名/密码
  • 用户详细信息字段(用于简单配置文件)
  • 用户对练习的评分(2 个数据点:每个试验都会得到一个分数(正确/不正确/超时,并且有一个我需要记录的从 0.1 到 1.0 的相关数字)
  • 关于试验的元数据(时间、人员等)
  • 用户数据分析结果

非常粗略的估计,每个用户每天产生 100 次试验。所以最多 10k 个数据点/天。它需要以这种方式运行大约 3 个月,大约 100 万个数据点。安全乘数 2x 为我提供了一个可以处理 2m 数据点的数据库目标。

((注意:我可以将试验响应数据存储为单独的数据点,或者将试验分组到不同长度的 Python 列表对象(用户“ session ”)中。后者会显着降低数据库条目的数量,但不是数据量。这重要吗?如何?))

我想要一个(至少)在我达到 1000 个用户级别之前都可以使用的解决方案。如果我的程序在那个级别之外很受欢迎,那么我可以在更强大的数据库中进行一些工作修改。还重申它必须可以作为 Web 应用程序轻松部署。

除了这些基本要求外,我只想要最简单的来完成这项工作。我很新。

感谢阅读

Tr3y

最佳答案

SQLite 当然可以处理这些数据量,它有一个非常大的用户群,其中有几个 very well known users在所有主要平台上,它快速,轻便,并且有awesome GUI clients只需点击几下即可浏览和提取/过滤数据。

当然,SQLite 不会无限扩展,但只有在 simultaneous inserts are needed 时才会出现严重的性能问题。 ,我猜这是一个在您的预期负载之后出现几个数量级的问题。

我已经使用它几年了,而且我从来没有遇到过问题(尽管对于较大的站点我使用 MySQL)。就我个人而言,“小。快。可靠。选择任意三个。”(这是 SQLite 网站上的标语)非常准确。

至于易用性... SQLite3 bindings (网站暂时下线)属于python标准库。 Here你可以找到一个小教程。有趣的是,简单性是 SQLite 的设计标准。来自 here :

Many people like SQLite because it is small and fast. But those qualities are just happy accidents. Users also find that SQLite is very reliable. Reliability is a consequence of simplicity. With less complication, there is less to go wrong. So, yes, SQLite is small, fast, and reliable, but first and foremost, SQLite strives to be simple.

关于Python心理实验需要(简单)数据库: please advise,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/6718872/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com