0
我已經在Google Machine Learning Engine上部署了用於分類的線性模型,並且希望使用在線預測來預測新數據。在線預測的高延遲問題
當我使用Google API客戶端庫調用API時,花費大約0.5秒的時間纔得到僅有一個實例的請求的響應。我預計延遲應該小於10微秒(因爲模型非常簡單),而0.5s太長了。我還嘗試使用predict_proba方法對新數據進行離線預測。獲得超過10萬次的實例花費了8.2s,比使用Google ML引擎要快得多。有沒有一種方法可以減少在線預測的延遲?發送請求的模型和服務器託管在同一個區域中。
我想實時做出預測(在API獲取請求後立即返回響應)。 Google ML Engine是否適合此目的?
除了下面的Lak的答案,如果您使用--enable-logging部署模型,將會很有幫助。日誌包含一些每請求延遲信息(可通過StackDriver日誌記錄進行訪問)。查看這些日誌會很有幫助。 – rhaertel80
我們很樂意幫助您識別延遲的來源。您是否介意將您的項目/模型/版本發送到cloudml-feedback @。注意:您可以通過在每個請求中包含多個實例來增加吞吐量(當前限制爲1.5 Mb有效負載大小)。 – rhaertel80