regression

    0熱度

    1回答

    我正在分析Iris dataset並在花瓣寬度和花瓣長度之間做了散點圖。爲了使情節我用這個代碼: # First, we'll import pandas, a data processing and CSV file I/O library import pandas as pd # We'll also import seaborn, a Python graphing library

    2熱度

    1回答

    看起來在最新版本的熊貓中,所有的ols功能都已被棄用(pandas.stats已被刪除,並且沒有PanelOLS或ols函數) 。我正在嘗試使用statsmodels運行面板迴歸,但找不到有效的方式來執行此操作?以前我可以用這樣的代碼: panel_ols = ols(y=DataFrame, x=DataFrame, ...,) 這估計使用一個單一的面板迴歸中的所有數據係數。 現在有辦法做到

    2熱度

    1回答

    我有一個包含1700萬觀察值的數據集,我試圖用它來訓練DNNRegressor模型。但是,培訓根本不起作用。損失大約10^15,這真是令人震驚。我已經嘗試了幾個星期的不同事情,無論我做什麼,我都無法承受損失。 例如,訓練後我進行測試predition與用於訓練數據相同的觀察結果中的一個。預期的結果是140944.00,但預測產品-169532.5,這是很荒謬的。訓練數據中甚至沒有任何負面的價值,我

    -1熱度

    1回答

    我使用帶有固定效果''內'選項'的'plm'命令來運行我的面板迴歸。 因變量是數字,而所有自變量都是分類的或二元的,除了cgi,eui,sjump和rv。 三個二元變量cc,ce,cw應該代表4個類別的同一個分類變量,所以我排除了一個。 但是,當我嘗試從這三個代表4個類別的二元變量中分析第四個類別的效果時,由於此固定效果模型沒有給出可用於獲得此效果的截距第四個分類變量,我必須設置所有的零。 我可以

    1熱度

    1回答

    我想執行迴歸,但我需要命令中的條件/約束,但我的工作不起作用。我的因變量是COMP_STD,我的獨立變量是BGroup。 BGroup具有以下值:12345。 我想運行5個不同的迴歸與變量BGroup,所以這個變量等於1,2等等。這是我試過的語法: regress COMP_STD if inrange (BGroup, 1) 但塔塔說inrange not found所以我想那一定是我無法找

    1熱度

    1回答

    我有2個關於estat vif問題來測試多重: 它是正確的,你只能在迴歸命令後計算estat vif? 如果我執行此命令,Stata只給我一個自變量的vif。 如何獲得所有自變量的vif?

    0熱度

    1回答

    我有一個看起來像這樣的數據: height <- c(1,2,3,4,2,4,6,8) weight <- c(12,13,14,15,22,23,24,25) type <- c("Wheat","Wheat","Wheat","Wheat","Rice","Rice","Rice","Rice") set <- c(1,1,1,1,2,2,2,2) dat <- data.frame(

    1熱度

    1回答

    所以我非常喜歡顯示統計迴歸模型的stargazer包。我一直在使用R和Stata來完成教科書中的一些問題。我發現的一個問題是,由stargazer包打印的置信區間與stata的置信區間並不相符。我確定手動完成後,stata中的CI是正確的。 因爲問題可能可能在於我如何處理數據,所以我在此將其作爲可選選項提供。我主要關心的是確定CI爲什麼不迴應。從以前的文章中,這裏是查找我正在使用的數據的一種可能方

    2熱度

    1回答

    我嘗試應用下面的函數來計算每個數據幀列的斜率和截距斜率: from scipy.stats import linregress def fit_line(x, y): """Return slope, intercept of best fit line.""" # Remove entries where either x or y is NaN. clean_d

    1熱度

    1回答

    的匹配AIC 應該不是 AIC(full) = 275.93 匹配的AIC的輸出,當步驟()函數與全模型,其是-9.86以下 Start: AIC=-9.86 y ~ x + x2 Df Sum of Sq RSS AIC - x2 1 0.03672 85.372 -11.8147 - x 1 1.03869 86.374 -10.6479 <none> 85