python-multiprocessing

    0熱度

    1回答

    我想跨多個工人,我的巨大循環,但我有這個錯誤:sqlite3.ProgrammingError:遞歸使用遊標不允許。 我想我必須應用Lock。我該怎麼做? import multiprocessing.dummy as multiprocessing con = sqlite3.connect('db.db', check_same_thread=False) cur = con.curso

    2熱度

    1回答

    當使用多處理池運行時,我發現工作進程繼續運行超過引發異常的點。 考慮下面的代碼: import multiprocessing def worker(x): print("input: " + x) y = x + "_output" raise Exception("foobar") print("output: " + y) return

    1熱度

    1回答

    我試圖做一個程序,要求用戶輸入和閱讀器功能打印輸入沒有輸入功能阻止閱讀器功能。 這裏我可以做什麼 import multiprocessing as mp import time def ProInput(queue): while True: if queue.empty(): print("{} waiting an item".format(mp.

    2熱度

    1回答

    當我使用一個標準的隊列送樣一個過程,一切工作正常。但是,由於我的需求很簡單,我嘗試使用SimpleQueue,出於某種原因,'空'方法不起作用。以下是詳細信息: 錯誤來自於消費過程中(當sample_queue是隊列,一切正常,當sample_queue是SimpleQueue,事情打破): def frame_update(i): while not self.sample_que

    0熱度

    1回答

    我是python和多處理模塊的新手。我創建了一個我試圖完成提煉我的問題的簡化版本。問題在於,變量在被附加到的函數之外被調用時並不會更新/工作進程。 經過研究,我認爲這可能與隊列有關?不過,我認爲隊列更多的是在我不相信的過程之間共享內存,因爲每個列表都可以獨立添加。 from multiprocessing import Pool def build(array): array.app

    0熱度

    1回答

    我有一個代碼,它代表一個汽車刺激,它基本上從文本文件讀取gps點並確定汽車的速度。 多重用於在同一時間 我要調用一個函數之後的多是準備打電話,將檢測到流量的清單中,從多個文本文件閱讀。 目前它正在多處理之前調用該函數並將其調用5次(多進程的數量),儘管它們沒有鏈接。 def stimulation(): if __name__ == '__main__': p1 = Process(t

    1熱度

    1回答

    我有一個由芹菜工人運行的腳本,它使用檯球庫中的Pool,並且我衍生出多個過程。我試圖在這些進程中使用哨兵,以便可以捕獲任何未處理/處理的異常。下面寫的是我的示例代碼: from configurations import SENTRY_CLIENT def process_data(data): try: s = data/0 except ZeroDivisionError:

    0熱度

    1回答

    我已成立等 manager = Manager(); nodes = manager.dict(); p1 = Process(target = advertise, args=(nodes,)); p1.start(); p2 = Process(target = receive, args=(nodes,)); p2.start(); def advertise(nodes)

    1熱度

    1回答

    實現在多進程超時我做的: import multiprocessing as mp q = mp.Queue() p = mp.Process(target=lambda x: x, args=('foo',)) p.start() p.join(10) if p.exitcode == 0: q.get() else: print("We timed out.")

    0熱度

    1回答

    from sklearn.datasets import make_classification from sklearn.ensemble import RandomForestClassifier from sklearn import clone import multiprocessing import functools import numpy as np def tra