- html - 出于某种原因,IE8 对我的 Sass 文件中继承的 html5 CSS 不友好?
- JMeter 在响应断言中使用 span 标签的问题
- html - 在 :hover and :active? 上具有不同效果的 CSS 动画
- html - 相对于居中的 html 内容固定的 CSS 重复背景?
我在 sagemaker 推理端点(单实例)上部署了自定义模型,在进行负载测试时,我观察到 CPU 利用率指标达到 100% 的最大值,但根据 this post它应该达到 #vCPU*100 % 的最大值。我已确认推理端点未使用 clowdwatch 日志中的所有内核。
因此,如果一个预测调用需要一秒钟的时间来处理以提供响应,则部署的模型每秒只能处理一个 API 调用,如果所有 vCPU 都已被使用,这可能会增加到每秒 8 个调用。
AWS Sagemaker 部署中是否有设置使用所有 vCPU 来提高并发性?
或者我们可以在部署时在 inference.py
文件中使用 multiprocessing python 包,以便每次调用都进入默认核心,然后所有计算/预测都在任何其他核心中完成,以空的为准那个实例?
最佳答案
更新
设置三个环境变量
从外观上看,pytorch 模型的 sagemaker 部署在 Sagemaker SDK guide 中给出。 , 使用 this dockerfile .在这个 docker 中,入口点是 torchserve-entrypoint.py如 Dockerfile line#124 .
这torchserve-entrypoint.py电话 serving.main()来自 serving.py .最终调用 torchserve.start_torchserve(handler_service=HANDLER_SERVICE)来自 torchserve.py .
At line 34 in torchserve.py它将“/etc/default-ts.properties”定义为 DEFAULT_TS_CONFIG_FILE。此文件位于 here .在这个文件中 enable_envvars_config=true已设置。它将使用此文件设置 IFF 环境变量“ENABLE_MULTI_MODEL”设置为“false”,引用 here .如果它设置为“true”,那么它将使用/etc/mme-ts.properties
关于AWS Sagemaker部署中是否有任何设置使用所有vCPU来提高并发性?
您可以使用各种设置对于模型,您可以在 config.properties TS_DEFAULT_WORKERS_PER_MODEL=$(nproc --all)
环境变量中设置 default_workers_per_model
。环境变量具有最高优先级。
除此之外,您还可以使用管理 API 设置工作人员数量,但遗憾的是无法在 sagemaker 中 curl 到管理 API。所以 TS_DEFAULT_WORKERS_PER_MODEL 是最好的选择。设置此项应确保使用所有内核。
但是如果您使用的是 docker 文件,那么在入口点您可以设置等待模型加载的脚本并 curl 到它以设置工作人员数量
# load the model
curl -X POST localhost:8081/models?url=model_1.mar&batch_size=8&max_batch_delay=50
# after loading the model it is possible to set min_worker, etc
curl -v -X PUT http://localhost:8081/models/model_1?min_worker=1
关于日志确认并非所有内核都被使用的另一个问题,我面临同样的问题,并且认为这是日志系统中的问题。请看本期https://github.com/pytorch/serve/issues/782 .社区本身同意,如果未设置线程,那么默认情况下它会打印 0,即使默认情况下它使用 2*num_cores。
对于所有可能的配置的详尽集
# Reference: https://github.com/pytorch/serve/blob/master/docs/configuration.md
# Variables that can be configured through config.properties and Environment Variables
# NOTE: Variables which can be configured through environment variables **SHOULD** have a
# "TS_" prefix
# debug
inference_address=http://0.0.0.0:8080
management_address=http://0.0.0.0:8081
metrics_address=http://0.0.0.0:8082
model_store=/opt/ml/model
load_models=model_1.mar
# blacklist_env_vars
# default_workers_per_model
# default_response_timeout
# unregister_model_timeout
# number_of_netty_threads
# netty_client_threads
# job_queue_size
# number_of_gpu
# async_logging
# cors_allowed_origin
# cors_allowed_methods
# cors_allowed_headers
# decode_input_request
# keystore
# keystore_pass
# keystore_type
# certificate_file
# private_key_file
# max_request_size
# max_response_size
# default_service_handler
# service_envelope
# model_server_home
# snapshot_store
# prefer_direct_buffer
# allowed_urls
# install_py_dep_per_model
# metrics_format
# enable_metrics_api
# initial_worker_port
# Configuration which are not documented or enabled through environment variables
# When below variable is set true, then the variables set in environment have higher precedence.
# For example, the value of an environment variable overrides both command line arguments and a property in the configuration file. The value of a command line argument overrides a value in the configuration file.
# When set to false, environment variables are not used at all
# use_native_io=
# io_ratio=
# metric_time_interval=
enable_envvars_config=true
# model_snapshot=
# version=
关于python - AWS Sagemaker 推理端点未利用所有 vCPU,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/68083831/
我正在试用 亚马逊 Sagemaker ,我还没有弄清楚我们如何进行持续培训。 例如,如果我在 s3 中有一个 CSV 文件,并且我想在每次更新 CSV 文件时进行训练。 我知道我们可以再次访问笔记本
SageMaker 端点的推理率是否有限制? 它是由端点后面的实例类型或实例数量以某种方式确定的吗? 我尝试以 AWS Service Quotas for SageMaker 的形式查找此信息但找不
在预处理存储在 s3 中的 2 GB 数据时,amazon sagemaker 中发生内存错误。加载数据没有问题。数据维度为 700 万行 64 列。一种热编码也是不可能的。这样做会导致内存错误。 笔
当我在 AWS SageMaker 上创建一个新作业时,使用我的自定义模板和人群表单(见附件示例)提交按钮不起作用,甚至无法点击。有没有办法让这项工作?尚未看到对 AWS 支持的良好回应。 $('#s
我正在尝试在 Amazon Sagemaker 中使用 python 构建超参数优化作业,但有些东西不起作用。这是我所拥有的: sess = sagemaker.Session() xgb = sag
我正在 P2.xlarge 实例中训练我的模型。当我下载数据集时,出现以下错误:“下载或提取过程中出现异常:[Errno 28] 设备上没有剩余空间”\ 我检查了 P2.xlarge 有 61GiB
目前我已经部署了一个 语义分割模型 和一个端点,我可以用它来调用和推理。现在,我一次得到每个图像的推论。 现在我想使用 一次尝试一批图像批量转换作业 .它工作得很好,但创建的图像是 .out 文件 我
我无法再查看项目、管道或创建新的笔记本。该投诉似乎与凭据相关。 Failed to launch app [None]. Error when retrieving credentials from
我有一个在特定数据集上训练的 sagemaker 模型,并创建了训练作业。现在我有一个新的数据集,模型必须在该数据集上进行训练,我如何根据现有模型的新数据重新训练模型?我们可以保存模型检查点吗? 最佳
我听说 Sagemaker Studio 会自动在主目录上创建 EFS。 EFS 主目录的大小是多少? 是否可以调整其大小? 我是 AWS 的完全初学者,所以如果有人回答我的问题,我会很高兴。 最佳答
如何将 SageMaker 笔记本的 jupyter 环境更新到最新的 Alpha 版本,然后重新启动该过程? 最佳答案 您好,感谢您使用 SageMaker! 要从 SageMaker Notebo
我有一个预先训练好的模型,它的工件保存在 S3 存储桶中。我试图弄清楚如何定义一个查看文档的估算器:https://sagemaker.readthedocs.io/en/stable/api/tra
我正在尝试在 SageMaker 中使用本地培训工作。 遵循此 AWS 笔记本 ( https://github.com/awslabs/amazon-sagemaker-examples/blob/
我正在写一个自定义 Estimator在 AWS Sagemaker 中,对于不支持开箱即用的框架。我有自己的 docker 图像用于训练,将训练代码捆绑到图像中,这迫使我每次代码更改时都重建图像。
我试图运行这个例子:tensorflow_abalone_age_predictor_using_layers,其中 abalone_predictor.predict(tensor_proto) 用
我试图避免将现有模型训练过程迁移到 SageMaker,并避免创建自定义 Docker 容器来托管我们训练的模型。 我希望将我们现有的、经过训练的模型注入(inject) AWS 通过 sagemak
请求帮助解决以下错误。 An error occurred (ModelError) when calling the InvokeEndpointoperation: Received client
我想从 Amazon SageMaker 上的笔记本中使用基于 mlflow 的用户界面。但是给定的地址http://127.0.0.1:5000似乎不起作用。 我已经在 SageMaker 笔记本上
能否在 SageMaker 上安装 Jupyter/JupyterLab 插件?我没有在 JupyterLab 或 SageMaker 界面中看到任何添加插件的选项。希望至少安装 VIM 插件。 最佳
这是一个基本的 AWS Sagemaker 问题。当我使用 Sagemaker 的一种内置算法运行训练时,我能够通过增加训练算法的 instance_count 参数来利用将作业分配给许多实例的巨大加
我是一名优秀的程序员,十分优秀!