我正在尋找一種適用於我的數據的alexa和googlenet tensorflow的multigpu現成算法。我發現許多基準代碼,例如convnet bench,http://www.comp.hkbu.edu.hk/%E2%88%BCchxw/dlbench.html[1]。但沒有什麼能夠滿足我的上述需求。對於例如,在朱古力的情況下,我只是在CNTK的情況下運行multigpu alexnb googlenet tensorflow
caffe train --solver=googlenet.prototxt --gpu=0,1,2,3,4,5,6,7
同樣,我跑
mpiexec -n <#workers> python AlexNet_ImageNet_Distributed.py -datadir myimages/
MXNet還提供更方便的接口運行alexnet和googlenet 。
我也看了苗條tensorflow
DATASET_DIR=/tmp/imagenet
TRAIN_DIR=/tmp/train_logs
python train_image_classifier.py \
--train_dir=${TRAIN_DIR} \
--dataset_name=imagenet \
--dataset_split_name=train \
--dataset_dir=${DATASET_DIR} \
--model_name=inception_v3
但目前尚不清楚在model_deploy更改使用多GPU的定義。
但是,在張量流中,我找不到任何現成的,只需要運行gpu的數量和圖像路徑來訓練多個GPU。有沒有我可以使用的現成的python/C++代碼,或者是否需要通過擴展tensorflow中的cifar_10_multi_gpu示例來自己構建一個?