我們已經爲某些迴歸任務培養了額外的樹模型。我們的模型由3棵額外的樹組成,每棵樹有200棵深度爲30的樹。在3棵額外的樹上,我們使用嶺迴歸。 我們訓練我們的模型幾個小時,並醃製訓練好的模型(整個類對象),供以後使用。但是,保存的訓練模型的大小太大,大約爲140 GB! 有沒有辦法減小保存模型的大小?鹹菜中是否有任何可能有用的配置,或鹹菜的任何替代品?受過訓練的機器學習模型太大
0
A
回答
3
在最好的情況下(二叉樹),你將有3 * 200 * (2^30 - 1) = 644245094400
節點或434Gb
假設每個節點將只花費1個字節來存儲。我認爲140GB是相當不錯的尺寸。
編輯:數學不好。
1
您可以嘗試使用帶壓縮參數的joblib。
from sklearn.externals import joblib
joblib.dump(your_algo, 'pickle_file_name.pkl',compress=3)
壓縮 - 從0到9值較高者意味着更多的壓縮,同時也更慢的讀寫次數。使用3的值通常是一個很好的折衷。
您可以使用python標準壓縮模塊zlib,gzip,bz2,lzma和xz。要使用,你可以只指定特定擴展名的格式
例如
joblib.dump(obj, 'your_filename.pkl.z') # zlib
的更多信息,請參閱[鏈接] :(http://gael-varoquaux.info/programming/new_low-overhead_persistence_in_joblib_for_big_data.html)
相關問題
- 1. 具有硬件限制的機器學習模型訓練
- 2. 線性迴歸機器學習訓練模型與龐大的數據
- 3. 在機器學習中識別未受過訓練的物品的可能性
- 4. 如何在Google Cloud機器學習引擎上訓練Keras模型
- 5. 在堆疊機器學習中,您應該訓練哪些模型?
- 6. 大型機器學習
- 7. 機器學習的非平衡訓練數據(CNN/RNN)
- 8. 什麼是訓練機器學習的步驟時間?
- 9. 訓練有素的垃圾郵件機器學習分類器/型號
- 10. 減少預訓練的深度學習模型的大小特徵生成
- 11. 機器學習:按重要性加權訓練點
- 12. 機器學習,訓練後,它如何得到預測? opencv
- 13. 機器學習 - 特徵選擇和訓練數據
- 14. 在機器學習訓練之前處理20x20圖像
- 15. Python機器學習訓練Classifer錯誤指數是越界
- 16. 機器學習訓練數據集的大小應該是多少?
- 17. 如何分辨機器學習模型的學習型
- 18. 在Mac機上的大型機練習
- 19. 培訓機器學習預測器
- 20. Autoencoder在訓練時未學習
- 21. 機器學習 - 培訓步驟
- 22. 生成與受過訓練的字符級LSTM模型
- 23. 如何預測與受過訓練的Tensorflow模型
- 24. NLP模型訓練
- 25. 什麼時候應該在訓練深度學習模型時使用預訓練的權重?
- 26. 學習jQuery的練習練習
- 27. 機器學習形狀和類型的機器學習
- 28. AWS機器學習Retrain模型
- 29. 意大利語Syntaxnet預訓練模型
- 30. 學習Python練習
的scikit模型持久[頁碼](HTTP:/ /scikit-learn.org/stable/modules/model_persistence.html#)表明在某些情況下使用'joblib'可以更高效。 – Tchotchke