gpt4 book ai didi

python - OpenShift v3 上的 Pandas

转载 作者:太空宇宙 更新时间:2023-11-03 13:09:55 26 4
gpt4 key购买 nike

既然 OpenShift Online V2 已宣布终止服务,我希望将我的 Python 应用程序迁移到 OpenShift Online V3,即 OpenShift NextGen。 Pandas 是一项要求(并在 requirements.txt 中列出)

get pandas installed in v2 已经很重要了但是 V3 不允许在构建过程中进行手动交互(或者允许吗?)。

当我尝试构建我的应用程序时,构建过程在一小时后停止。 pip 已下载并安装 requirements.txt 的内容,并且正在为选定的包运行 setup.py。日志文件的and是

Running setup.py install for numpy
Running setup.py install for Bottleneck
Running setup.py install for numexpr
Running setup.py install for pandas

然后进程停止,没有任何错误消息。

有没有人知道如何在 OpenShift V3 上构建需要 pandas 的 Python 应用程序?

最佳答案

这将是两件事之一。

要么编译 Pandas 是一个巨大的内存消耗,可能是由于编译器遇到了一些病态情况。或者,此时生成的图像的大小超过了内部限制,因此用完了分配的磁盘空间。

如果是内存,则需要增加分配给构建 pod 的内存。在 Online 中默认为 512Mi。

要增加限制,您需要从 Web 控制台或使用 oc edit 从命令行编辑构建配置的 YAML/JSON。

对于 YAML,您需要添加以下内容:

  resources:
limits:
memory: 1Gi

这是设置字段:

$ oc explain bc.spec.resources.limits FIELD: limits <object>

DESCRIPTION:
Limits describes the maximum amount of compute resources allowed. More
info: http://kubernetes.io/docs/user-guide/compute-resources/

最大值为 1Gi。看起来增加到这个值确实允许构建完成,而将它增加到 768Mi 是不够的。

请注意,这会在运行时从 compute-resources-timebound 的配额中占用内存,并且由于它在构建过程中全部使用它,您同时尝试和做的其他事情可以阻止。

FWIW,本地构建的图像大小,而不是在线构建的图像大小,仅生成:

172.30.1.1:5000/mysite/osv3test              latest               f323d9b036f6        About an hour ago   910MB

因此,除非清理之前使用的中间空间是一个问题,否则这不是问题。

因此增加用于构建的内存似乎是答案。

关于python - OpenShift v3 上的 Pandas ,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/46030744/

26 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com