2016-10-10 52 views
1

我想部署本地訓練模型。我遵循所有的指令here進行模型準備,我設法部署它。無法運行推理圖 - 可能會出錯?

然而,當我試圖讓預言,網上預報名與502服務器錯誤響應,並批量預測返回('Failed to run the inference graph', 1)

有沒有一種方法,以獲得更好的錯誤消息來縮小有什麼不對?

謝謝

+0

隨着試驗和錯誤,我發現我輸入的格式是錯誤的。 502服務器錯誤似乎與此無關。 –

+0

本週推出了502服務器錯誤修復程序。 – rhaertel80

+0

雖然部署將需要整週完成,但有些用戶報告已經爲他們修復了錯誤。 – rhaertel80

回答

1

運行推理圖的會話時顯示錯誤消息。有可能揭示一些代碼在本地使用模型會發生什麼。測試它的一種方法是創建一個小的輸入數據集並將其提供給推理圖,以檢查是否可以在本地運行會話。

你可以參考的local_predict.py樣本/ MNIST /部署/在SDK有關如何做到這一點。下面是一個例子使用:

python local_predict.py --input=/path/to/my/local/files --model_dir=/path/to/modeldir. 

注意,model_dir點,其中tensorflow元圖原和檢查點文件被保存。它們是由培訓產生的。這裏是關於如何訓練模型的文檔鏈接。 https://cloud.google.com/ml/docs/how-tos/training-models。模型目錄也可以在GCS上。

感謝您提出這個問題。我們一直致力於改善服務的整體體驗,包括錯誤報告。