gpt4 book ai didi

slurm - 如何使用 SLURM 限制在同一节点上运行的作业数?

转载 作者:行者123 更新时间:2023-12-01 16:22:42 38 4
gpt4 key购买 nike

我有一个包含 100 个作业的作业数组。我希望最多可以将作业数组中的 2 个作业分配给同一个节点。我如何使用 SLURM 执行此操作?谢谢!

最佳答案

假设作业可以共享节点,并且节点具有同构配置,并且集群上只有你一个人,

  1. 使用 sinfo -Nl 命令查找每个节点的 CPU 数量
  2. 使用 #SBATCH --tasks-per-node=...#SBATCH --cpus-per-task=... 提交请求数量一半的作业 基于你的工作做什么

如果您正在管理一个在其他人之间共享的集群,您可以定义一个虚拟类型的 GRES,并将其中两个分配给 slurm.conf 中的每个节点> 然后使用 --gres=dummy:1

为每个作业请求一个

关于slurm - 如何使用 SLURM 限制在同一节点上运行的作业数?,我们在Stack Overflow上找到一个类似的问题: https://stackoverflow.com/questions/47373764/

38 4 0
Copyright 2021 - 2024 cfsdn All Rights Reserved 蜀ICP备2022000587号
广告合作:1813099741@qq.com 6ren.com