2017-04-18 72 views
0

我正在尋找一種適用於我的數據的alexa和googlenet tensorflow的multigpu現成算法。我發現許多基準代碼,例如convnet bench,http://www.comp.hkbu.edu.hk/%E2%88%BCchxw/dlbench.html[1]。但沒有什麼能夠滿足我的上述需求。對於例如,在朱古力的情況下,我只是在CNTK的情況下運行multigpu alexnb googlenet tensorflow

caffe train --solver=googlenet.prototxt --gpu=0,1,2,3,4,5,6,7

同樣,我跑

mpiexec -n <#workers> python AlexNet_ImageNet_Distributed.py -datadir myimages/

MXNet還提供更方便的接口運行alexnet和googlenet 。

我也看了苗條tensorflow

DATASET_DIR=/tmp/imagenet 
TRAIN_DIR=/tmp/train_logs 
python train_image_classifier.py \ 
    --train_dir=${TRAIN_DIR} \ 
    --dataset_name=imagenet \ 
    --dataset_split_name=train \ 
    --dataset_dir=${DATASET_DIR} \ 
    --model_name=inception_v3 

但目前尚不清楚在model_deploy更改使用多GPU的定義。

但是,在張量流中,我找不到任何現成的,只需要運行gpu的數量和圖像路徑來訓練多個GPU。有沒有我可以使用的現成的python/C++代碼,或者是否需要通過擴展tensorflow中的cifar_10_multi_gpu示例來自己構建一個?

回答

0

最簡單的方法來設置您的GPU設備export CUDA_VISIBLE_DEVICES=0,1,2,3,...