我有一個11 MB的數據集。每次加載文檔時加載速度很慢。如何處理d3js中的大數據集
d3.csv("https://s3.amazonaws.com/vidaio/QHP_Individual_Medical_Landscape.csv", function(data) {
// drawing code...
});
我知道,交叉過濾器可用於在瀏覽器中加載數據後進行切片。但在此之前,數據集很大。我只使用數據的聚合。看起來我應該在將數據發送到客戶端之前預先處理服務器上的數據。也許,在服務器端使用crossfilter。有關如何處理/處理d3大型數據集的任何建議?
就像你說的那樣,在服務器上進行預處理。或者只有彙總值的文件的較小版本。 –
嗯也許你應該添加一個加載屏幕。我不認爲服務器端交叉過濾會更快。 – 0xcaff
@caffinatedmonkey,我可以將數據存儲在我們的mongodb後端,而不是從URL加載。 –