正式證明非常簡單。 您的映射f的性質不能表示爲您的功能的功能。你只能得到一些近似值,並添加更多變量總是擴大可能的近似者的空間(要更嚴格 - 永不減少)。雖然它可能實際上是難在這個新的空間(以及所有已知的算法將失敗)找到一個很好的approximator,總會有更大的機會存在。一般來說 - 如果您可以創建一組完美的功能,例如...輸出值本身 - 然後添加任何東西都會降低模型的質量。但在現實生活中 - 我們作爲人類 - 無法找到這樣的好預測因子,所以我們盲目地抽取可以獲得的東西,從現實中衡量,並作爲一個簡單的隨機猜測 - 每一個附加信息可能是有用的。
如果你喜歡更數學化的解決方案,考慮f
是未知的功能集
f(x1, ..., xm) e R
現在你可以測量原始信號r1, r2, ...
的一些無限的空間,併爲有原始信號的每個子集的功能是f
的這些真實特徵的映射,但具有不同程度的正確性,因此您有g1(r1, r2, r3) = (x1+er1, 0, x3+er3, ...); g2(r1) = (0, 0, x3+er4, ...)
等。您正試圖從某些有限子集的原始信號構建函數到R
,這將近似爲f
,因此您需要的更大數量的r
包括,你有更好的機會確定這些元素,這將使近似f
成爲可能。不幸的是 - 你可以添加很多冗餘信號,或者那些與真實特徵完全不相關的冗餘信號。這可能被看作是偏差變化的一個大問題。假設您在所有可能的信號範圍內都這樣做(並且您實際上可以找到與f
的性質完全相關的內容),則您添加的功能越多,您將引入的差異越大。另一方面 - 小的特徵集引入了高偏置誤差(由於對所需信號的強烈假設以及與真實特徵的相關性)。
特別是,線性迴歸是不是非常適合用於高度相關信號的工作,所以對於這個特殊的統計模型,增加了新的信號可能會迅速摧毀你的模型。LR有一個強大的基本假設,即f
是所有預測變量的線性模型,最多爲正態分佈誤差,每維之間有相同的變化。
的多個部件的情況下,僅僅是一個只有一個功能,你的體重情況的概括矢量除了一個特徵外全部爲零。所以不可能變得更糟,因爲你可以自由地忽略其他信息。 – cel
「這個想法是使用更多的參數可以給出更好的預測。」不必要。如果您使用太多參數,則生成的模型可能會過度配置。無論如何,你應該在[CrossValidated](http://stats.stackexchange.com)上提出這個問題。 – BartoszKP
這對於交叉驗證的堆棧來說確實是一個更合適的討論。溢出應該用於編碼問題。 – JJFord3