data.table

    0熱度

    2回答

    對於df我想在最後10秒內取值列的滾動總和,時間以秒爲單位。數據幀非常大,所以使用dply :: complete不是一個選項(數百萬個數據點,毫秒級別)。我更喜歡dplyr解決方案,但認爲它可能與數據表left_join,只是不能使其工作。 df = data.frame(Row=c(1,2,3,4,5,6,7),Value=c(4,7,2,6,3,8,3),Time=c(10021,10023

    -1熱度

    1回答

    我再次看到一些遺留R代碼,試圖讀取用戶的頭腦。看起來他們正在使用Python風格,從而他們定義了一個空R矢量,然後使用for循環將結果附加到一個矢量。 library(data.table) dtable = read.table("path/filename.txt",header=TRUE,sep="\t",check.names=FALSE) 定義這個data.table後,這裏是什麼

    0熱度

    3回答

    我的第一行是添加下列行的參考值(對於N列)。 數據 A B C D 3 5 1 2 1 4 5 3 2 2 2 4 3 1 3 1 4 3 1 2 計算如下: 3,是被添加的參考值,它是3應被添加到1,2,3和4中,類似地5是參考值 - 被加到4,2,1,3,然後1被參考值加到5,2,3,1等等直到n列。 1 + 3 4 + 5 5 + 1 3 + 2 2 + 3 2 + 5 2

    2熱度

    1回答

    我想使用fread函數讀取多個文件(csv)。但最後一行我有不必要的數據,我無法使用fread,因爲它會拋出一個錯誤。 代碼: library(data.table) fnames <- list.files("Path",pattern = "^.*Star.*.csv$",full=TRUE) read_data <- function(z){ dat <- fre

    4熱度

    3回答

    我想從我自己的Java應用程序執行一個jar。 (不可能將這個jar導入到一個庫中,然後啓動該應用程序作爲我自己的「啓動器」的一個實例)。從我自己的Java應用程序執行jar ...我使用的是下一行: String [] cmd = new String [] {"java","-jar","myjar.jar"}; Process process = Runtime.getRuntime().

    2熱度

    1回答

    library(data.table) library(lubridate) x1 <- c(20090101, "2009-01-02", "2009 01 03", "2009-1-4", "2009-1, 5", "Created on 2009 1 6", "200901 !!! 07") dt2 <- data.table(id = c(1,1,1,2,2,2,2)

    3熱度

    1回答

    我不想使用setNames功能,但這樣做的聲明: iris2 <- data.table(iris) iris2[,.(value = mean(Sepal.Length)), by = "Species"] 例如,我想有名字:value和group。 PS: 這太瘋狂了!使用agregate的費用爲1200毫秒。 doint與data.table相同,現在花費30ms。就像我們放在.()內

    0熱度

    1回答

    我想建立一個經紀商網絡,因爲我需要同時爲多個用戶提供服務。我發現我可以使用嵌入的代理並啓動Java代碼中的每個代理,或者下載完整的apache activemq分發並運行多個實例。 目前,我沒有任何具體的理由使用嵌入式經紀人。但另一方面,我沒有任何理由反對使用嵌入式中間商。你能否給我一個提示,說明使用嵌入式經紀人可能存在的真正弊端? 謝謝,乾杯

    1熱度

    1回答

    我有一個df,如: SampleID Chr Start End Strand Value 1: rep1 1 11001 12000 - 10 2: rep1 1 15000 20100 - 5 3: rep2 1 11070 12050 - 1 4: rep3 1 14950 20090 + 20 ... 而且我想加入共享相同chr和strand,並具有類

    0熱度

    1回答

    我有這樣 Date Rain Temp 1990-01-01 0.0 29.2 1990-03-03 0.0 30.4 1990-06-10 NA 25.2 1990-09-02 0.3 26.8 1991-01-04 0.1 31.2 1991-03-02 0.0 34.0 1991-06-01 5.4 27.1 1991-09-01 0.4 25.1 1