pandas

    3熱度

    1回答

    嘗試將大熊貓列df['day']解析爲日期時間類型。當前值被寫爲字符串,例如:2016-9-1。這對應於年 - 月日。 我下面從該頁面的格式: http://strftime.org/ 我最初嘗試使用 pd.to_datetime(df['day'], format="%Y-%m-%d") ,但得到 ValueError: time data 'day' does match format s

    1熱度

    2回答

    第三種和希望的最後一種類型的問題如下所示。 基於this和this問題,我將如何創建計算並計算Pandas中的新列,其中輸入是整數和範圍,並輸出一個字符串? 這是我原來的定義,因爲我在ArcPy中有它: df_joined["Gef_Stufe"] = df_joined["StaokKlass", "nFK"].apply(Gefaehrdestufe) ,並與我的其他問題之一提到的方法:

    1熱度

    1回答

    所以我最近開始使用Jupyter Notebook。 我使用SQL查詢,然後將我的結果作爲數據框導入到熊貓。 但是,在嘗試了所有可以在互聯網上找到的東西之後,我無法使用SQL獲取我的表列的類型。 我可以使用'type()'獲取一次導入到pandas的類型,但這是與數據庫中使用的格式不同的格式。 有沒有辦法使用SQL查詢直接從數據庫中獲取它,還是必須將其從pandas類型轉換而來?從SQL查詢中獲取

    1熱度

    1回答

    我使用google圖表繪製下面的數據框。 Group G1 G2 Hour 6 19 1 8 1 2 我在折線圖上繪製了上面的數據框。但是我無法將圖例和標題添加到折線圖中。此外,我正在嘗試增加折線圖的尺寸,因爲它看起來很小。不確定我們在matplotlib中是否有這些選項。任何幫助,將不勝感激。 import matplotlib.pyplot as plt plt

    0熱度

    1回答

    我有一個熊貓DataFrame,我正在做一個groupby(['target'])。count()。這工作正常。然而,對於每個組,我想要的一件事是ID列中唯一元素的數量。 我想要做的是,對於ID列,除了任何ID值的第一個副本(ID對於組是唯一的,因此我不必擔心這個問題),將其全部清空。然後,groupby()。count()會給我每個組中唯一ID的數量......但我不知道該怎麼做。

    2熱度

    1回答

    我在過濾數據類型爲列表的列上的pandas數據框時遇到了一些問題(我們稱之爲column_1)。具體而言,我只想返回行,以便column_1和另一個預定列表的交集不爲空。但是,當我嘗試將邏輯放在.where,function的參數中時,我總是會得到錯誤。以下是我的嘗試,並返回錯誤。 Attemping測試單個元素是否是列表中: table[element in table['column_1']]

    2熱度

    2回答

    我讀一個CSV文件未找到,frmo我獲得這些列: encoding = "UTF-8-SIG" csv_file = "my/path/to/file.csv" fields_cols_mapping = { 'brand_id': 'Brand', 'custom_dashboard': 'Custom Dashboard LO', 'custom_dashbo

    2熱度

    1回答

    有沒有更好的方法(以最少的代碼的意義),它可以做如下:一列轉換爲枚舉數值,所以應該去有點這樣: 得到設置項目在列 做出enumrated字典與鍵值 恢復與價值的關鍵 使用鍵值的結果,而不是新數據列中的數據。 所以這裏就是我今天做的,不知道是否有人能顯示一個經典的方式做到這一點,所以我能避免寫功能get_color_val: import pandas as pd cars = pd.DataFr

    1熱度

    2回答

    雖然從TensorFlow在我的數據集運行wide_n_deep_tutorial程序,會顯示以下錯誤。 "TypeError: Signature mismatch. Keys must be dtype <dtype: 'string'>, got <dtype:'int64'>" 以下是代碼片段: def input_fn(df): """Input builder funct

    2熱度

    2回答

    我想根據可變的時間間隔將行分組。 但是,在做分組時,我想忽略日期部分,只根據時間日期分組。我想每5分鐘一組。 timestampe val 0 2016-08-11 11:03:00 0.1 1 2016-08-13 11:06:00 0.3 2 2016-08-09 11:04:00 0.5 3 2016-08-05 11:35:00 0.7 4 2016-08-19 1