large-data

    0熱度

    2回答

    我正在用PHP實現一個PHP項目。現在我沒有太多的數據,但我想知道,在未來,當我有一個大的數據集。它會減慢我在表格中的搜索速度。所以爲了減少搜索時間,我在考慮緩存技術。哪個緩存即客戶端或服務器對於大型數據集是有利的? 謝謝,aby

    7熱度

    1回答

    我在phpmyadmin中有一個db,它有3000000條記錄。我想將它導出到另一臺電腦。現在當我出口這隻有200000項導出到.sql文件,並且也沒有導入其他電腦上。

    1熱度

    3回答

    我知道如何在使用HTML的用戶表單上執行此操作。但是,惡意用戶可以通過傳遞該表單來調用服務器操作頁面併發送異常大型文本。 有沒有辦法拒絕來自服務器的這種請求。也許,有一種機制,我們可以事先實現在實際到達之前到達的POST數據的大小,類似於上傳大文件。

    0熱度

    1回答

    我爲我的應用程序使用WinForms和C#,我的數據主要是一些字符串,整數和許多列表。現在我將它們存儲在xml和文本文件中,但我發現讀取數據需要很長時間。我使用的是XmlWriter和XmlReader。例如,我有4個XML文件,總計2-3 mbs,我解析和〜250文本,我一次讀取他們的內容。加載需要3-4分鐘,我不使用線程。這是正常還是其他事情正在進行?我應該使用其他方式來存儲我的數據嗎?它是否

    3熱度

    2回答

    是否可以使用numpy.memmap將字符串的大型磁盤陣列映射到內存中? 我知道這可以做浮動和類似的,但這個問題是專門關於字符串。 我對固定長度和可變長度字符串的解決方案感興趣。 該解決方案可以自由指定任何合理的文件格式。

    0熱度

    2回答

    我是一名開發人員,在管理包含大量記錄的表時遇到問題。 我正在執行一個cron作業來填充主表(表A),其中有5-6列和大約4,00,000到5,00,000行的數據,然後創建另一個表和表中的數據將繼續隨着時間增加。 表A中包含的原始數據和我的輸出表是表B 我的cron腳本表B中截斷數據然後使用選擇查詢 TRUNCATE TABLE_B; INSERT INTO TABLE_B (field1,

    6熱度

    2回答

    考慮以下numpy代碼: A[start:end] = B[mask] 這裏: A和B是2D陣列具有相同的列數; start和end是標量; mask是一維布爾數組; (end - start) == sum(mask)。 在原理上,上面的操作,可以使用O(1)臨時存儲通過複製的B元件直接進入A進行。 這是實際發生的實際情況,還是numpy構建了一個臨時數組B[mask]?如果是後者,是否有辦

    0熱度

    1回答

    鑑於使用mode='r'(即只讀)創建的numpy.memmap對象,有沒有辦法強制它清除物理RAM中的所有加載頁面,而不刪除對象本身? 換句話說,我希望對memmap實例的引用保持有效,但是所有用於緩存磁盤上數據的物理內存都是未提交的。任何視圖到memmap陣列也必須保持有效。 我希望將此作爲一種診斷工具,幫助將腳本的「真實」內存需求與使用memmap引發的「瞬態」需求分開。 我在RedHat上

    4熱度

    3回答

    我正在研究旨在研究人類行爲的學術項目。 該項目將分三個部分可分爲: 程序從一些偏遠源讀取數據,並建立本地數據池吧。 用於驗證此數據池並使其保持一致的程序 允許用戶讀取/操作數據的Web界面。 的數據包括人的名單中,所有與編號,並與幾個特點:身高,體重,年齡,... 我需要輕鬆地進行組出這個數據的(例如:所有年齡段或一定範圍的高度),數據是幾TB大(但可以減少2-3 gb的較小子集)。 我對該項目背

    2熱度

    1回答

    讓我們說,我有一個網站獲得大量的點擊。我需要將點擊數據存儲在某個數據庫中,以便將其用於報告和監控目的。點擊數據將包含誰引用用戶訪問本網站,用戶來自哪裏,他們來自什麼時候等信息。 有沒有一種方法可以存儲並分析這些數據,比如說10分鐘的時間間隔,以便您可以每10分鐘瞭解一次該網站的效果。什麼類型的數據庫最適合此目的,哪種分析工具可以快速從這些數據中生成有意義的信息。我正在考慮的一種分析選項是使用map