gpt4 book ai didi

docker - 如何将环境变量传递给 gcloud beta ai custom-jobs create with custom container (Vertex AI)

转载 作者:行者123 更新时间:2023-12-05 02:38:59 29 4
gpt4 key购买 nike

我在谷歌的 Vertex AI 中运行自定义训练作业。执行自定义作业的简单 gcloud 命令将使用类似于以下语法的内容(可以查看命令的完整文档 here ):

gcloud beta ai custom-jobs create --region=us-central1 \
--display-name=test \
--config=config.yaml

config.yaml 文件中,可以指定机器和加速器 (GPU) 类型等,在我的例子中,指向位于 Google Artifact Registry 中的自定义容器执行训练代码(在 containerSpecimageUri 部分指定)。示例配置文件可能如下所示:

# config.yaml
workerPoolSpecs:
machineSpec:
machineType: n1-highmem-2
acceleratorType: NVIDIA_TESLA_P100
acceleratorCount: 2
replicaCount: 1
containerSpec:
imageUri: {URI_FOR_CUSTOM_CONATINER}
args:
- {ARGS TO PASS TO CONTAINER ENTRYPOINT COMMAND}

我们正在运行的代码需要一些运行时环境变量(需要安全)传递给容器。在API documentation对于 containerSpec,它表示可以按如下方式设置环境变量:

# config.yaml
workerPoolSpecs:
machineSpec:
machineType: n1-highmem-2
acceleratorType: NVIDIA_TESLA_P100
acceleratorCount: 2
replicaCount: 1
containerSpec:
imageUri: {URI_FOR_CUSTOM_CONATINER}
args:
- {ARGS TO PASS TO CONTAINER ENTRYPOINT COMMAND}
env:
- name: SECRET_ONE
value: $SECRET_ONE
- name: SECRET_TWO
value: $SECRET_TWO

当我尝试将 env 标志添加到 containerSpec 时,我收到一条错误消息,指出它不是容器规范的一部分:

ERROR: (gcloud.beta.ai.custom-jobs.create) INVALID_ARGUMENT: Invalid JSON payload received. Unknown name "env" at 'custom_job.job_spec.worker_pool_specs[0].container_spec': Cannot find field.
- '@type': type.googleapis.com/google.rpc.BadRequest
fieldViolations:
- description: "Invalid JSON payload received. Unknown name \"env\" at 'custom_job.job_spec.worker_pool_specs[0].container_spec':\
\ Cannot find field."
field: custom_job.job_spec.worker_pool_specs[0].container_spec

知道如何使用自定义容器在 Vertex AI 自定义作业中安全地设置运行时环境变量吗?

最佳答案

REST API 有两个版本 - “v1 ”和“v1beta1 ” 其中,“v1beta1”在 ContainerSpec 中没有 env 选项,但“v1”有。不带 beta 参数的 gcloud ai custom-jobs create 命令不会抛出错误,因为它使用版本“v1”进行 API 调用。

可以通过以下方式将 yaml 文件中的环境变量传递给自定义容器:

这是我用来测试需求的示例自定义培训应用程序的 docker 文件。请引用这个codelab有关培训应用程序的更多信息。

FROM gcr.io/deeplearning-platform-release/tf2-cpu.2-3
WORKDIR /root

WORKDIR /

# Copies the trainer code to the docker image.
COPY trainer /trainer


# Copies the bash script to the docker image.
COPY commands.sh /scripts/commands.sh

# Bash command to make the script file an executable
RUN ["chmod", "+x", "/scripts/commands.sh"]


# Command to execute the file
ENTRYPOINT ["/scripts/commands.sh"]

# Sets up the entry point to invoke the trainer.
# ENTRYPOINT "python" "-m" $SECRET_TWO ⇒ To use the environment variable
# directly in the docker ENTRYPOINT. In case you are not using a bash script,
# the trainer can be invoked directly from the docker ENTRYPOINT.

下面是docker容器中使用的commands.sh文件,用于测试环境变量是否传递给容器。

#!/bin/bash
mkdir /root/.ssh
echo $SECRET_ONE
python -m $SECRET_TWO

示例 config.yaml 文件

# config.yaml
workerPoolSpecs:
machineSpec:
machineType: n1-highmem-2
replicaCount: 1
containerSpec:
imageUri: gcr.io/infosys-kabilan/mpg:v1
env:
- name: SECRET_ONE
value: "Passing the environment variables"
- name: SECRET_TWO
value: "trainer.train"

下一步,我构建容器并将其推送到 Google 容器存储库。现在,可以运行 gcloud ai custom-jobs create --region=us-central1 --display-name=test --config=config.yaml 来创建自定义训练作业和输出commands.sh 文件可以在作业日志中看到,如下所示。

enter image description here

关于docker - 如何将环境变量传递给 gcloud beta ai custom-jobs create with custom container (Vertex AI),我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/69302528/

29 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com