0
我有一個支配我模型的預測變量,我仍然希望包含它,但是我想在最終模型中降低它的重要性。有沒有一種好的(sci)pythonic方法來做到這一點?我想,也許定義自定義PenaltyTransformer
它引入了隨機噪聲到變量,像這樣:如何懲罰預測變量以降低其特徵重要性
class PenaltyTransformer(BaseEstimator,TransformerMixin):
def __init__(self, columns, scale=0.1):
self.scale = scale
self.columns = columns
def transform(self, X):
X[:,self.columns] += np.random.normal(loc=0, scale=self.scale, size=X[:,self.columns].shape)
return X
...這是否有道理?
您是否認爲您可能只是過度使用您的模型?你可以採取[避免這些措施](https://www.quora.com/How-can-I-avoid-overfitting)。 – AlexG
@AlexG感謝您的建議,雖然它不是過度配置,但變量是真正的預測性的,我只是不希望它主宰模型,因爲這不適合我的應用 – maxymoo
如果您使用正則化,可以將具體來說,這個預測指標的懲罰更高 –