我有許多大型(〜100 Mb)文件,我經常處理這些文件。雖然我試圖在處理過程中刪除不需要的數據結構,但內存消耗有點過高。我想知道是否有辦法有效地處理大數據,例如:大型數據結構操作/處理中的內存使用
def read(self, filename):
fc = read_100_mb_file(filename)
self.process(fc)
def process(self, content):
# do some processing of file content
是否有數據結構的重複?使用像self.fc這樣的類屬性是否更有效率?
什麼時候應該使用垃圾回收?我知道有關gc模塊,但是我是否在例如del fc
之後調用它?
更新
p.s. 100 Mb本身不是問題。但浮動轉換,進一步處理添加顯着更多的工作集和虛擬大小(我在Windows上)。
文件中的哪些內容?處理過程在做什麼? – 2009-02-04 19:38:21
逗號分隔的時間序列,我減少到一些可以理解的總結變量 – SilentGhost 2009-02-04 19:43:35
你能更具體一點,也許發表一個小例子? – oefe 2009-02-04 21:45:54