logistic-regression

    1熱度

    1回答

    我很難知道什麼是神經網絡的損失函數。對於二元分類問題,它是否意味着平方誤差,如以下視頻中所述:https://www.youtube.com/watch?v=5u0jaA3qAGk&t=59s或者它是否與這裏定義的熵熵http://work.caltech.edu/slides/slides09.pdf以及爲什麼?此外,在多分類的情況下,我認爲有一些像softmax,但我真的不知道它是如何工作的。

    1熱度

    1回答

    當我在scikit learn python包中進行邏輯迴歸時遇到問題。 當數據具有不同數量的樣本數爲1或0時,我想對樣本權重進行邏輯迴歸。但是,我有一些數據,所以我無法獲得相同數量的樣本。

    0熱度

    2回答

    如何在sklearn python中重新訓練我現有的機器學習模型? 我有成千上萬的記錄,我用它訓練了我的模型,並使用pickle傾銷爲.pkl文件。 在第一次訓練模型時,我在創建邏輯迴歸對象時使用了warmStart = True參數。 示例代碼: log_regression_model = linear_model.LogisticRegression(warm_start = True)

    1熱度

    1回答

    我運行邏輯迴歸在一個非常小的和簡單的數據集,可以很好地分離。但是我意識到模型無法找到最佳的決策邊界。我的錯誤在哪裏? import pandas as pd import seaborn as sns import matplotlib.pyplot as plt import numpy as np from sklearn import linear_model sm_df = p

    0熱度

    1回答

    所以我已經做了coursera毫升當然,現在我期待在scikit學習迴歸這是一個有點不同。我一直在使用sigmoid函數,當y = 0和y = 1時,成本函數被分成兩個不同的情況。但scikit學習有一個功能(我發現這是通用邏輯功能),這對我來說確實沒有意義。 http://scikit-learn.org/stable/_images/math/760c999ccbc78b72d2a91186b

    3熱度

    1回答

    我一直在學習神經網絡的課程,並不真正理解爲什麼我從邏輯迴歸的準確性分數和兩層神經網絡(輸入層和輸出層)中獲得不同的結果。輸出層使用sigmoid激活函數。根據我所瞭解的,我們可以在神經網絡中使用S形激活函數來計算概率。如果邏輯迴歸試圖完成的話,這應該是非常相似的。然後從那裏backpropogate使用梯度下降最小化錯誤。可能有一個簡單的解釋,但我不明白爲什麼準確度分數變化如此之大。在這個例子中,

    0熱度

    2回答

    我對機器學習是全新的,我試圖用scikit-learn用1個輸入變量(X)和一個二元結果(Y)來建立一個簡單的邏輯迴歸模型。我的數據包含325個樣本,39個成功和286個失敗。數據分成訓練和測試(30%)。 我的目標實際上是根據我的數據獲得任何給定X的預測成功概率,而不是爲了分類預測本身。也就是說,我將把預測的概率用於我正在構建的單獨模型中,並且不會將邏輯迴歸用作分類器。所以預測概率實際上適合數據

    0熱度

    1回答

    我一直在閱讀kaggle中的幾個代碼,並且遇到了模糊的實現。直到今天,我從來不知道我們可以在模型的外部聲明一個變量。 from sklearn.linear_model import LogisticRegression ... model = LogisticRegression() .... model.loss = 0.01 model.penalty = 'l1' model.

    -1熱度

    1回答

    我做了一些谷歌搜索,並得到了一些答案,但他們都有自己的問題。例如 SIGMOD的結果將0 和1之間 這是好的,但SIGMOD功能不是唯一的函數,其結果是0和1之間 它是單調函數,但又有很多單調函數。 那麼爲什麼sigmod?一些我認爲它與中心極限定理有一些聯繫,儘管我不知道它是什麼。 那麼你能解釋爲什麼sigmod在邏輯迴歸?爲什麼解決分類問題很好?

    0熱度

    1回答

    我試圖運行邏輯迴歸來預測稱爲has_sed的變量(二進制,描述樣本是否有沉積物,編碼爲0 =沒有沉積物,1 =有沉澱物)。見下面這個模型的輸出摘要: Call: glm(formula = has_sed ~ vw + ws_avg + s, family = binomial(link = "logit"), data = spdata_ss) Deviance Residuals: