我想使用微調的VGG-19網絡從MS COCO數據集中的圖像中提取特徵。從VGG中提取特徵
然而,每個圖像大約需要6到7秒,每1k圖像大約需要2個小時。 (對於其他微調模型甚至更長)
MS COCO數據集中有120k圖像,所以它至少需要10天。
有什麼辦法可以加快特徵提取過程嗎?
我想使用微調的VGG-19網絡從MS COCO數據集中的圖像中提取特徵。從VGG中提取特徵
然而,每個圖像大約需要6到7秒,每1k圖像大約需要2個小時。 (對於其他微調模型甚至更長)
MS COCO數據集中有120k圖像,所以它至少需要10天。
有什麼辦法可以加快特徵提取過程嗎?
那麼,這不僅僅是一個命令。首先,您必須檢查您的GPU是否足夠強大,足以與深度CNN摔跤。瞭解你的GPU模型可以回答這個問題。其次,您必須在Makefile.config(或CMakeLists.txt)中編譯和構建帶有CUDA和啓用GPU(CPU_Only禁用)的Caffe框架。
通過所有必需的步驟(安裝Nvidia驅動程序,安裝CUDA等),您可以構建caffe以供GPU使用。然後通過在命令行中傳遞GPU_Device_ID,您可以從它們提供的速度中受益。
跟隨this使用GPU構建Caffe的鏈接。
希望它可以幫助
這IPython的筆記本例子解釋步驟提取特徵任何朱古力模型的非常好:https://github.com/BVLC/caffe/blob/master/examples/00-classification.ipynb
在pycaffe,你可以簡單地通過使用caffe.set_mode_gpu設置GPU模式() 。
您使用的是GPU嗎? – Shai
使用CPU_Only和多核處理,單個圖像平均需要0.7〜1.2(預取會導致更快的處理)秒。沒有辦法減少計算時間,因爲這是GPU實現自己命運的地方。 – Saeed
@Shai我不確定如何使用gpu進行特徵提取,因爲它是通過命令完成的:./build/tools/extract_features.bin caffemodel -file prototxt -file fc7 dest_dir #batch lmdb有沒有一種方法可以啓用gpu的命令? – ytrewq