python-multiprocessing

    3熱度

    1回答

    我不明白它是如何工作的。我有功能log_in有兩個參數用戶和密碼。並有列表與我所有的用戶和密碼。所以,當我使用p.map(log_in,list)時,這意味着列表將會迭代並「解包」。其中,[ '用戶', 'bitnami'],[ 'USER1', '12345']等將這些參數log_in(用戶,密碼)。 是嗎? def log_in(user, password): payload =

    0熱度

    1回答

    我有兩個腳本: Processor_child.py:其目的是執行一些數據分析和清理操作。當單獨運行時(不包括Tkinter_parent.py),它必須執行與使用Tkinter_parent.py打包到GUI中時相同的操作。 Tkinter_parent.py:它的目的是爲那些無法直接使用Processor_child的用戶提供GUI。 當我掙扎是從重現蟒蛇input功能Processor_ch

    0熱度

    1回答

    我有一個主進程acepting套接字連接的服務器,並將它們放入隊列堆棧中,另一個進程監視此堆棧並將其應用於處理連接的池進程。除了一件事情,所有的工作都很好: 最後一次連接allways at stuck直到出現另一個連接,它看起來像上次連接無法關閉,但爲什麼? from multiprocessing import Queue, Process, Pool, Manager import dat

    0熱度

    4回答

    輪詢管我有兩個腳本: Processor_child.py:其目的是執行一些數據分析和清理操作。當單獨運行時(不包括Tkinter_parent.py),它必須執行與使用Tkinter_parent.py打包到GUI中時相同的操作。 Tkinter_parent.py:它的目的是爲那些無法直接使用Processor_child的用戶提供GUI。 在Processor_child,有for循環,即要

    2熱度

    2回答

    我試圖運行下面的代碼多: import multiprocessing class test(multiprocessing.Process): def __init__(self, name): multiprocessing.Process.__init__(self) self.name = name self.finished = Fals

    1熱度

    1回答

    當從子類numpy.ndarray的子類的實例列表中使用map()從multiprocessing.Pool()時,自己類的新屬性被刪除。 下面的基礎上,numpy docs subclassing example小例子,再現了問題: from multiprocessing import Pool import numpy as np class MyArray(np.ndarray):

    0熱度

    2回答

    所以我有一個函數,它只通過兩個參數對幾個.txt文件執行一些操作。它目前正在按預期工作,但我在近一個小時內就完成了10%的東西 - 所以需要一些時間,因爲.txt文件相當大。 現在,我已經閱讀了關於程序包多重處理的內容,尤其是其中的Pool段。但是,我不太清楚我如何正確使用它。 我用它來運行我的函數的代碼如下: for k, structure in enumerate(structures):

    0熱度

    1回答

    因此,我正在開發一個應用程序,每次啓動時都要檢查〜50 GB的數據與哈希列表。顯然這需要並行化,我不希望應用程序掛在「LOADING ...」屏幕上一分半鐘。 我正在使用multiprocessing.Pool的map_async來處理這個;主線程調用map_async(checkfiles, path_hash_pairs, callback)並提供一個回調,告訴它在發現不匹配時發出警告。 麻煩

    0熱度

    1回答

    我有創建子進程,使用未來接收結果,然後殺死其中一些需要時的要求。 爲此,我分類了multiprocessing.Process類,並從start()方法返回Future對象。 問題是我無法在cb()函數中接收到結果,因爲它永遠不會被調用。 請幫助/建議如果這可以用其他方式完成,或者我在當前實現中丟失了什麼? 以下是我目前的做法 from multiprocessing import Process

    0熱度

    1回答

    我有concurrent.futures.ProcessPoolExecutor一個相當普通的香草實現 - 像(使用Python 3.6): files = get_files() processor = get_processor_instance() with concurrent.futures.ProcessPoolExecutor() as executor: list(e