pandas-groupby

    0熱度

    1回答

    我想要計算由實體ID分組的數字列的最後12個月的滾動總和。我的數據看起來有點像這樣: eID perioddate 123456 14 ABC 2011-01-31 31773.0 74 ABC 2011-01-31 31773.0 35 ABC 2011-01-31 31773.0 96 ABC 2011-01-31 31773.0 57 ABC 2011-04-30 11209.0

    1熱度

    1回答

    我使用熊貓作爲Python的一部分,我有下表。我不能爲我的生活弄清楚如何做到以下幾點。任何幫助將非常感激。 我有一個數據表,有很多重複的時間點。然而,每個重複的時間點都有不同的行填充部分。我想將所有時間點合併到一個包含所有信息的行中。 我不想總結列。 我不想連接列。 我想獲取某個列中單個時間點的第一個值,並忽略同一時間點的該列中的任何附加值。 表格應該使這更清晰。 +---------------

    1熱度

    2回答

    例大熊貓據幀 - ID ADDRESS COLUMN1 COLUMN2 COLUMN3 1 123 FRONT ST 2017 1 123 FRONT ST 2016 1 123 FRONT ST 2018 2 324 2nd st 2008 2 324 2nd st 2014 我的目標是重複數據刪除以上,但對數據幀「COLUMN1 - 欄3」我要繼續如果該字段

    1熱度

    1回答

    我沒有什麼運氣來完成一項任務,我想要一個熊貓數據框的子集高達一個值,並按他們的ID分組。在實際的數據集,我有幾個列在 '身份證' 和 '狀態' 之間。例如: d = {'id': [1,1,1,1,1,1,1,2,2,2,2,2,2,2], 'status': [0,0,0,0,1,1,1,0,0,0,0,1,0,1]} df = pd.DataFrame(data=d) id st

    1熱度

    2回答

    我有一個熊貓數據幀,看起來像這樣: KEY START END VALUE 0 A 2017-01-01 2017-01-16 2.1 1 B 2017-01-01 2017-01-23 4.3 2 B 2017-01-23 2017-02-10 1.7 3 A 2017-01-28 2017-02-02 4.2 4 A 2017-02-02 2017-03-01 0.8

    2熱度

    2回答

    我聽說過Pandas經常有多種方法來做同樣的事情,但我想知道 - 如果我試圖按特定列中的值對數據進行分組並計算具有該值的項目數價值,什麼時候使用df.groupby('colA').count()以及何時使用df['colA'].value_counts()有意義?

    0熱度

    2回答

    的量級: Node_1 Node_2 Time A B 6 A B 4 B A 2 B C 5 一個如何獲得,使用GROUPBY或其它方法中,數據幀如下: Node_1 Node_2 Mean_Time A B 4 B C 5 第一行的通過找到的所有路由的平均A-> B和B-> A而獲得Mean_Time,即(6 + 4 + 2)/3 = 4

    1熱度

    1回答

    ,我有以下結構的數據幀: 是myDF: Entry Address ShortOrdDesc 0 988 Fake Address 1 SC_M_W_3_1 1 989 Fake Address 2 SC_M_W_3_3 2 992 Fake Address 3 nan_2 3 992 SC_M_G_1_1 4 992 SC_M_O_1_1 有要在此完成

    1熱度

    1回答

    我有這樣的數據集, PRODUCT_ID SALE_DATE SALE_PRICE PROVIDER 1 01/02/16 25 1 1 02/10/16 60 1 1 01/11/16 63 2 1 09/10/16 65 3 2 11/11/15 54 1 2 13/01/16 34 2 3 19/05/14 45 1 3

    1熱度

    1回答

    我有一個包含YYYY-MM-DD('arrival_date')形式的時間序列(作爲索引)的熊貓數據幀和I我想每個星期一到星期天都要分組,以便計算其他列的平均值,中位數,標準偏差等等。我最終應該只有七行,到目前爲止我只知道如何按周分組,每週彙總一切。 # Reading the data df_data = pd.read_csv('data.csv', delimiter=',') # P