gpt4 book ai didi

Django 装置。加载初始数据进程被终止

转载 作者:行者123 更新时间:2023-12-02 07:11:28 28 4
gpt4 key购买 nike

我一直致力于将两个遗留数据库中的一些 57k 多条记录精炼和重构为一个与 Django 兼容的实体。现在,当我完成后,我将其转储为固定装置,并尝试将其加载到生产环境中。

我的问题是该进程不久后就被“杀死”。我的流程是:

./manage.py syncdb --noinput
./manage.py loaddata core/fixtures/auth.json # just a default user
./manage.py migrate

结果:

Running migrations for django_extensions:  # custom apps migrate just fine
- Migrating forwards to 0001_empty.
> django_extensions:0001_empty
- Loading initial data for django_extensions.
Installed 0 object(s) from 0 fixture(s)
Running migrations for myotherapp:
- Migrating forwards to 0001_initial.
> myotherapp:0001_initial
- Loading initial data for myotherapp.
Installed 4 object(s) from 1 fixture(s) # my other app with a fixture migrates ok
Running migrations for myapp:
- Migrating forwards to 0001_initial.
> myapp:0001_initial
- Loading initial data for myapp.
Killed

我必须指出,该过程在我的开发机器上进行得没有问题。另一个注意事项是我的开发机器运行的是 postgres 9.2,在生产环境中运行的是 9.1 - 这会是一个大问题吗?

如何进行调试?我什至不知道打印出模糊的“被杀”有什么问题。 South 是否存储任何日志?任何帮助表示赞赏。

编辑:正如 Paulo Scardine 指出的那样,问题在于 JSON 文件太重。首先我尝试了 XML dump,它走得更远,但最终也被终止了。一种方法是 SQL 转储。对于 Postgres 对我有用的是:

pg_dump dbname | gzip > filename.gz # dump data on dev machine
createdb dbname # create empty db in production
gunzip -c filename.gz | psql dbname # restore the dump in production

最佳答案

找不到有关加载装置的具体错误。这是为了倾销,但我猜根本原因是相关的:

您的问题有几个重复:

当我遇到这个错误时,我被告知要使用 XML 固定装置,因为 XML 解析器在内存占用方面表现得更好。

我的建议是不要在这个问题上浪费太多时间,如果可以的话,诉诸纯 SQL 转储。

关于 Django 装置。加载初始数据进程被终止,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/19622873/

28 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com