0
我正在使用XGBoost進行一些實驗。 我設置迭代次數爲1000,得到的結果 - 不無道理..XGBoost - 學習率
比我嘗試做不同的事情:
而不是運行1000次迭代我想運行100次迭代,這一個重複10次(總共也有1000次迭代)。 在這十步之間我設置了: target_learn = target_learn - target_fitted(從前一步)。
和比target_fitted = target_fitted +預測
Target_fitted預測是對測試集在所有數據集增益通過交叉驗證。
我得到了不同的結果 - 準確度很差。
比我走得遠遠跑只有5次迭代完成200次......更糟糕..
爲什麼我試圖做到這一點,我想在迭代過程中改變學習矩陣的原因(嘗試做有點經常性)。
任何想法,爲什麼結果是不同的...這是在我看來,在每個步驟中第一次迭代是不同的東西,所以我有這個迭代模型很多次,這是殺害acurracy ...
其他參數相同..
或者我可能缺少完整的東西..? THX