distributed-computing

    2熱度

    2回答

    我想運行一個機器上的多個工人守護進程。根據damienfrancois's回答what is the minimum number of computers for a slurm cluster它可以完成。問題是目前我能夠在一臺機器上只執行一個工作守護進程。例如 當我運行 sudo slurmd -N linux1 -cDvv sudo slurmd -N linux2 -cDvv lin

    1熱度

    1回答

    在Linux程序編程接口Kerrisk 在討論中,到目前爲止,我們已經討論了使用管 通信之間的父和子進程。但是, 管道可以用於之間的任何兩個(或多個)相關的 進程之間的通信,只要該管道是由一個共同的祖先在 之前創建的一系列fork()調用導致進程的存在。 在分佈式系統中, 做親子進程或分佈式系統在不同機器上運行的進程之間存在「關聯」過程的關係? 是否存在管道作爲在分佈式系統中的不同機器上運行的進程

    0熱度

    1回答

    同步和競態條件概念僅適用於共享內存模型嗎? 在分佈式內存模型,當開始處理比共享內存其他的方式進行溝通,做同步和競爭條件仍然適用? 謝謝。

    6熱度

    1回答

    看起來像akka.cluster.split-brain-resolver是付費功能。 (我從this line in the docs獲得了這樣的印象): 這是Typesafe Reactive Platform的一項功能,它專爲Typesafe Project Success Subscription客戶提供。 這是否意味着我將不得不付出處理導致腦裂的網絡分區的策略,還是有辦法處理可用的開放源

    0熱度

    1回答

    我正在通過示例here來學習MNIST上的分佈式TF。我改變了集羣配置到: parameter_servers = ["1.2.3.4:2222"] workers = [ "1.2.3.4:2222", "5.6.7.8:2222"] 1.2.3.4和5.6.7.8只是我的兩個節點的表示。它們不是真正的IP地址。整個腳本名爲example.py 在1.2.3.4,我跑:python exa

    0熱度

    1回答

    我發現Erlang的「分配協議」,概述這裏節點之間的握手過程:http://erlang.org/doc/apps/erts/erl_dist_protocol.html 我在寫我自己的玩具平臺,我想,使其與其他人如果可能的話兼容。是否有一個廣泛實施的通用協議,或者大多數平臺是否採用了Erlang的方法,並迫使您實施其特定的協議?

    2熱度

    1回答

    卡夫卡0.10.0.1增加了使用一種稱爲kafka-streams-application-reset.sh 匯合腳本重置卡夫卡流應用程序的能力,對這個腳本here一些好的文檔。 不幸的是,在本地運行腳本導致錯誤: $ bin/kafka-streams-application-reset --application-id my-streams-app \ --inpu

    0熱度

    1回答

    我有一個場景: 說我有一個分佈式系統,其任務是接受一項任務,這項任務應用業務邏輯和結果扔一些其他服務的工人。 所以說可以有3種類型的請求,即;工作人員能夠區分請求並在這些請求上應用相應的業務邏輯。在這種情況下工作人員有狀態還是無狀態? 我的觀察,工人是無國籍工人不保存有關任務的任何信息,它並不關心被應用到任務較早什麼操作,既不它關心會發生什麼給它的未來。所以基本上沒有國家分享問題。工作人員只關心用

    0熱度

    2回答

    我知道Apache Helix允許動態集羣擴展/收縮(例如添加/失敗/刪除物理節點)。但是,如果單個物理節點無法處理單個分區副本,則需要將分區分成兩部分。我知道我們需要預先估計工作量,所以我們可以預先設置足夠數量的分區。但是,隨着流量不可預測地上升,幾乎不可能做出這樣的預估。任何人都可以告訴我Helix是否支持重新分區開箱即用?如果我需要對其進行定製以添加重新分區功能,那麼原理上的努力程度和方法如

    1熱度

    1回答

    我正在實施使用實用拜占庭容錯的分佈式系統。這個方法委託一個委員會爲每個提交投票。但是,如果它們全部崩潰或在DDoS攻擊下,整個網絡將崩潰。我很好奇是否有辦法改變整個委員會。這與視圖更改不同,因爲視圖更改只會替換錯誤的節點,而這需要替換所有委員會成員,從而組成一個充滿活力的委員會。