gpt4 book ai didi

cluster-computing - 在 SGE 上使用多个通配符提交作业的 snakemake 问题

转载 作者:行者123 更新时间:2023-12-03 19:07:35 25 4
gpt4 key购买 nike

我之前在 LSF 集群上使用过snakemake,一切正常。但是,最近我迁移到了 SGE 集群,当我尝试使用多个通配符运行作业时,出现了一个非常奇怪的错误。
当我尝试根据此规则提交作业时

rule download_reads :
threads : 1
output : "data/{sp}/raw_reads/{accesion}_1.fastq.gz"
shell : "scripts/download_reads.sh {wildcards.sp} {wildcards.accesion} data/{wildcards.sp}/raw_reads/{wildcards.accesion}"
我收到以下错误( snakemake_clust.sh 详细信息如下)
./snakemake_clust.sh data/Ecol1/raw_reads/SRA123456_1.fastq.gz                                          
Building DAG of jobs...
Using shell: /bin/bash
Provided cluster nodes: 10
Job counts:
count jobs
1 download_reads
1

[Thu Jul 30 12:08:57 2020]
rule download_reads:
output: data/Ecol1/raw_reads/SRA123456_1.fastq.gz
jobid: 0
wildcards: sp=Ecol1, accesion=SRA123456

scripts/download_reads.sh Ecol1 SRA123456 data/Ecol1/raw_reads/SRA123456
Unable to run job: ERROR! two files are specified for the same host
ERROR! two files are specified for the same host
Exiting.
Error submitting jobscript (exit code 1):

Shutting down, this might take some time.
当我用常量替换 sp 通配符时,它按预期工作:
rule download_reads :
threads : 1
output : "data/Ecol1/raw_reads/{accesion}_1.fastq.gz"
shell : "scripts/download_reads.sh Ecol1 {wildcards.accesion} data/Ecol1/raw_reads/{wildcards.accesion}"
IE。我得到
Submitted job 1 with external jobid 'Your job 50731 ("download_reads") has been submitted'.
我想知道为什么我会遇到这个问题,我确信我之前在基于 LSF 的集群上使用了完全相同的规则,没有任何问题。
一些细节
蛇形提交脚本如下所示
#!/usr/bin/env bash                                                                                                                                                                

mkdir -p logs

snakemake $@ -p --jobs 10 --latency-wait 120 --cluster "qsub \
-N {rule} \
-pe smp64 \
{threads} \
-cwd \
-b y \
-o \"logs/{rule}.{wildcards}.out\" \
-e \"logs/{rule}.{wildcards}.err\""
-b y 使命令原样执行, -cwd 将计算节点上的工作目录更改为提交作业的工作目录。我希望其他标志/规范很清楚。
另外,我知道 --drmaa 标志,但我认为集群没有为此配置好。 --cluster 到目前为止是一个更强大的解决方案。
-- 编辑 1 --
当我在本地(在前端,没有 --cluster 标志)执行完全相同的蛇文件时,脚本会按预期执行。好像是snakemake和调度器交互的问题。

最佳答案

-o \"logs/{rule}.{wildcards}.out\" \                                                                                                                                           
-e \"logs/{rule}.{wildcards}.err\""
这是一个随机猜测......在将它们替换为 logs/{rule}.{wildcards}.err 之前,多个通配符由空格连接。因此,尽管您使用双引号,但 SGE 将结果字符串视为两个文件并引发错误。如果改用单引号怎么办?喜欢:
-o 'logs/{rule}.{wildcards}.out' \                                                                                                                                           
-e 'logs/{rule}.{wildcards}.err'
或者,您可以连接规则中的通配符并在命令行上使用结果。例如。:
rule one:
params:
wc= lambda wc: '_'.join(wc)
output: ...
然后使用:
-o 'logs/{rule}.{params.wc}.out' \                                                                                                                                           
-e 'logs/{rule}.{params.wc}.err'
(第二个解决方案,如果它有效,虽然有点糟糕)

关于cluster-computing - 在 SGE 上使用多个通配符提交作业的 snakemake 问题,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/63173061/

25 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com