4
我正在使用GEFORCE GTX 1080 ti(11GB)的tf-seq2seq包來訓練NMT模型。在訓練模型期間,執行nvidia-smi
表明,在所有CPU內核繁忙時,GPU易失性利用率始終小於25%。爲什麼?爲什麼tensorflow的利用率低於GEFORCE 1080 ti(11GB)的20%?
我怎麼能找到,如果我利用我的GPU的全部潛力?
我正在使用GEFORCE GTX 1080 ti(11GB)的tf-seq2seq包來訓練NMT模型。在訓練模型期間,執行nvidia-smi
表明,在所有CPU內核繁忙時,GPU易失性利用率始終小於25%。爲什麼?爲什麼tensorflow的利用率低於GEFORCE 1080 ti(11GB)的20%?
我怎麼能找到,如果我利用我的GPU的全部潛力?
上述實驗中的模型太小,無法充分利用GPU的所有潛力。
在上述實驗中,擴大模型(利用更多圖層,增加詞彙量,增加序列長度......)會提高利用率(小於80-90%)。