slurm

    1熱度

    1回答

    我觀察到,當我運行SLURM作業時,它可能會在其他文件夾路徑上創建文件,並且可能會將其刪除。通過SLURM工作,他們可以訪問其他文件夾/文件並對其進行更改似乎很危險。 $ sbatch run.sh run.sh: #!/bin/bash #SBATCH -o slurm.out # STDOUT #SBATCH -e slurm.err # STDERR echo hello >

    1熱度

    1回答

    我有一個python程序,我在slurm上運行。 我的python程序正在導入不同的包。當我試圖import cv2,我面臨着以下錯誤: import cv2 ImportError: No module named 'cv2' 我的工作腳本是: #!/bin/bash #SBATCH --job-name=myjob #SBATCH --account=default #SBATCH

    1熱度

    1回答

    我的問題與this one類似,區別在於我的不同參數不是數字而是字符串。 如果我有一個以兩個字符串作爲參數的腳本(myscript.R):「text-a」,「text-A」。我對sbatch shell腳本是: #!/bin/bash #SBATCH -n 1 #SBATCH -c 12 #SBATCH -t 120:00:00 #SBATCH --partition=main #SB

    0熱度

    1回答

    問題:是否有可能,如果是,那麼如何獲得核心的列表我的mpi作業正在哪個特定時刻運行? 很容易列出作業已分配到的節點,但在花了幾個小時花在瀏覽互聯網之後,我開始懷疑slurm以任何方式暴露核心列表(爲什麼它不會很難?)。 問題是,我想仔細檢查一下,我正在處理的集羣是否真的像我要求的那樣跨節點,核心(如果可能,套接字)傳播我的作業進程你會)。 請注意,hwloc不是我的問題的答案,我問是否有可能從sl

    3熱度

    1回答

    我試圖在使用SLURM的集羣上運行粒子羣優化問題,並使用由單核心matlab進程管理的優化算法。每個粒子評估都需要在兩個Python程序之間交替進行多個MPI調用,直到結果收斂。每個MPI呼叫最多需要20分鐘。 我最初很天真地將每個MPI調用作爲一個單獨的SLURM作業提交,但由此產生的排隊時間使得它比本地串行運行每個作業要慢。我現在試圖找出提交N節點作業的方法,該作業將持續運行MPI任務以利用可

    0熱度

    1回答

    下面的鏈接https://slurm.schedmd.com/sacct.html定義經過時間如下: 經過的工作崗位經過的時間。這樣做的格式字段輸出是 如下:[DD- [HH:]] MM:SS 下面的代碼返回: jobId = 1; sacct -j $jobId --format="Elapsed" | tail -n1 | head -n1 輸出: 0點10分11秒 我無法確定這一天(D

    15熱度

    2回答

    我想了解SLURM的srun和sbatch命令之間的區別是什麼。我會對一般性解釋感到滿意,而不是針對以下問題的具體答案,但這裏有一些具體的混淆點,可以作爲一個起點,並提供我正在尋找的內容。 按照documentation,srun是用於提交作業,並sbatch是提交以便以後執行的工作,但實際的區別是我不清楚,他們的行爲似乎是相同的。例如,我有一個2個節點的集羣,每個節點有2個CPU。如果我連續5次

    1熱度

    1回答

    我遵循本指南:Could SLURM trigger a script(implemented by the frontend-SLURM user) when any job is completed?當作業注視着slurm時,它會觸發我已實施的腳本。 我有以下腳本。它可由SlurmUser讀取和執行。內部腳本我想打電話給ipfs並返回生成的散列。 hello.sh #!/bin/bash

    0熱度

    1回答

    我必須使用sbatch在集羣上運行多個模擬。在一個文件夾,我必須要運行的Python腳本和文件與sbatch使用: #!/bin/bash -l #SBATCH --time=04:00:00 #SBATCH --nodes=32 #SBATCH --ntasks-per-core=1 #SBATCH --ntasks-per-node=36 #SBATCH --cpus-per-tas

    1熱度

    1回答

    當我向具有兩個GPU的節點提交帶選項--gres = gpu:1的SLURM作業時,如何獲得分配給作業的GPU ID?有沒有爲此目的的環境變量?我使用的GPU都是NVIDIA GPU。 謝謝。