2015-11-05 307 views
0

我正在使用XGBoost進行一些實驗。 我設置迭代次數爲1000,得到的結果 - 不無道理..XGBoost - 學習率

比我嘗試做不同的事情:

而不是運行1000次迭代我想運行100次迭代,這一個重複10次(總共也有1000次迭代)。 在這十步之間我設置了: target_learn = target_learn - target_fitted(從前一步)。

和比target_fitted = target_fitted +預測

Target_fitted預測是對測試集在所有數據集增益通過交叉驗證。

我得到了不同的結果 - 準確度很差。

比我走得遠遠跑只有5次迭代完成200次......更糟糕..

爲什麼我試圖做到這一點,我想在迭代過程中改變學習矩陣的原因(嘗試做有點經常性)。

任何想法,爲什麼結果是不同的...這是在我看來,在每個步驟中第一次迭代是不同的東西,所以我有這個迭代模型很多次,這是殺害acurracy ...

其他參數相同..

或者我可能缺少完整的東西..? THX

回答

0

好吧,我知道了,有設置:

默認設置: 'base_score':0.5

造成這個問題...