2
當alpha參數接近零時,Tikhonov(壟)成本等於最小平方成本。 scikit-learn docs about the subject上的所有內容都表示相同。因此,我預計LinearRegression()和Ridge(alpha = 0)之間的區別
sklearn.linear_model.Ridge(alpha=1e-100).fit(data, target)
等同於
sklearn.linear_model.LinearRegression().fit(data, target)
但事實並非如此。爲什麼?
更新,代碼:
import pandas as pd
from sklearn.linear_model import Ridge, LinearRegression
from sklearn.preprocessing import PolynomialFeatures
import matplotlib.pyplot as plt
%matplotlib inline
dataset = pd.read_csv('house_price_data.csv')
X = dataset['sqft_living'].reshape(-1, 1)
Y = dataset['price'].reshape(-1, 1)
polyX = PolynomialFeatures(degree=15).fit_transform(X)
model1 = LinearRegression().fit(polyX, Y)
model2 = Ridge(alpha=1e-100).fit(polyX, Y)
plt.plot(X, Y,'.',
X, model1.predict(polyX),'g-',
X, model2.predict(polyX),'r-')
注:情節看起來同爲alpha=1e-8
或alpha=1e-100
謝謝,但設置阿爾法到一個非常小的正浮沒有解決它。請參閱附加的代碼和它生成的繪圖。 – spacegoliath
Scaling固定它,謝謝!有趣的是它如何溢出脊和不規則的最小二乘。當採用係數的標準時,可能會發生這種情況,當根據未處理的數據計算時,這些係數是巨大的。 – spacegoliath