gpt4 book ai didi

slurm - Snakemake如何使用--cluster-status和sacct解析slurm jobid

转载 作者:行者123 更新时间:2023-12-04 17:42:17 32 4
gpt4 key购买 nike

我正在使用 slurm 调度程序 (v14.11.4) 运行大型 snakemake (v5.3.0) 管道。不幸的是,大约 1/1000 的作业因 NODE_FAILED(ExitCode 0)而崩溃,snakemake 无法识别,导致输出文件完成一半。

为了让 snakemake 意识到这一事件,我想出了 --cluster-status 和一个使用 sacct 解析 jobid 的脚本> 应该可以解决问题。为了完成这项工作,我修改了一个我在网上找到的脚本,现在看起来像这样:

#!/usr/bin/env python3
import os
import sys
import warnings
import subprocess

jobid = sys.argv[1]
state = subprocess.run(['sacct','-j',jobid,'--format=State'],stdout=subprocess.PIPE).stdout.decode('utf-8')
state = state.split('\n')[2].strip()

map_state={"PENDING":'running',
"RUNNING":'running',
"SUSPENDED":'running',
"CANCELLED":'failed',
"COMPLETING":'running',
"COMPLETED":'success',
"CONFIGURING":'running',
"FAILED":'failed',
"TIMEOUT":'failed',
"PREEMPTED":'failed',
"NODE_FAIL":'failed',
"REVOKED":'failed',
"SPECIAL_EXIT":'failed',
"":'success'}

print(map_state[state])

该脚本在命令行中运行良好。但是,当启动 snakemake 时如下:

SM_ARGS="--cpus-per-task {cluster.cpus-per-task} --mem-per-cpu {cluster.mem-per-cpu-mb} --job-name {cluster.job-name} --ntasks {cluster.ntasks} --partition {cluster.partition} --time {cluster.time} --mail-user {cluster.mail-user} --mail-type {cluster.mail-type} --error {cluster.error} --output {cluster.output}"

snakemake -p \
$* \
--latency-wait 120 \
-j 600 \
--cluster-config $(dirname $0)/cluster.slurm.json \
--cluster "sbatch $SM_ARGS" \
--cluster-status ~/scripts/snakemake/slurm_status.py

它开始提交第一批 600 个作业,之后基本上就停止了,没有提交其他作业。但是,所有最初提交的作业都成功完成。提交所有作业后,snakemake 日志会产生一个错误:

sacct: error: slurmdbd: Getting response to message type 1444
sacct: error: slurmdbd: DBD_GET_JOBS_COND failure: No error

我假设我的命令没有将 jobid 正确解析为 slurm_status.py。但是,我不知道 snakemake 如何将 jobid 解析为 slurm_status.py 并且谷歌无法回答这个问题(通过 snakemake 获得的稀疏信息也不是 -帮助).

感谢您的支持。

最佳答案

我从未使用过snakemake,但我有一个猜测。来自 snakemake 文档:

For this it is necessary that the submit command provided to –cluster returns the cluster job id.

但是您的 -cluster 命令不返回作业 ID。它返回一个末尾带有作业 ID 的字符串。您可以尝试将参数 --parsable 添加到 sbatch 调用中。根据手册:

Outputs only the job id number and the cluster name if present. The values are separated by a semicolon. Errors will still be displayed.

如果这不起作用,您将不得不按照自己的方式从 sbatch 获取干净的作业 ID。也许您可以将 sbatch 命令封装在另一个解析输出的脚本中:

!#/bin/bash

sbatch "$@" | awk '{print $4}'

关于slurm - Snakemake如何使用--cluster-status和sacct解析slurm jobid,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/53906974/

32 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com