0
我有一個小腳本,它將運行約300,000個單詞的單詞表並創建與該文件完全相同的999KB文件。這工作完美,但它的速度非常緩慢,因爲我每次迭代打開文件,我如何解決這個腳本到哪裏它將具有完全相同的行爲,但會加快處理時間?加速處理時間,同時從較大的文件創建較小的文件
import os
import hashlib
data = []
count = 1
with open("dicts/included_dicts/dictionaries/000webhost.txt") as a:
for line in a.readlines():
h = hashlib.md5()
h.update(line.strip())
data.append(h.hexdigest() + ": " + line.strip() + "\n")
for item in data:
with open("dicts/included_dicts/rainbowtables/md5_{}.rtc".format(count), "a+") as b:
if os.stat("dicts/included_dicts/rainbowtables/md5_{}.rtc".format(count)).st_size <= 1022162L:
b.write(item)
else:
count += 1
這可能會工作大聲笑。 – papasmurf
這可行,但它不會產生相同的行爲,文件大小是1003KB而不是999KB – papasmurf
@papasmurf嘗試減小大小比較值。 –