alpha-beta-pruning

    3熱度

    2回答

    我想開發一個信息不完整的雙人遊戲 - 「Stratego」。 這款遊戲「有點」像國際象棋,但最初我們對對手的棋子行列一無所知。當一個攻擊或者被某個對手的棋子攻擊時,他們的等級被揭示,並且較高等級的棋子殺死/捕獲較低等級的棋子。 關於遊戲的更多細節可以在here找到。 我做了一些調查。我讀了J.A.的「戰略對手建模」。斯坦凱維奇。但是我找不到關於如何開發遊戲的完整教程。我已經成功開發了一款雙人遊戲

    0熱度

    1回答

    我已經在java中應用了Minimax算法實現了3 * 3 Tic Tac Toe遊戲。但是,當我將電路板尺寸更改爲4 * 4時,該程序似乎掛起。我想問一下我是否應該使用Alpha-beta修剪Minimax來解決這個問題,或者Minimax本身可以嗎?

    3熱度

    1回答

    有什麼算法可以解決井字遊戲?特別是對於4 * 4或更大尺寸而不是3 * 3的電路板?我用Minimax & alpha-beta pruning嘗試了4 * 4,但pc似乎掛起並在堆棧溢出時拋出異常。 我看到了這些以javascript編寫的源代碼,但我不知道它使用哪種算法,有誰能爲我澄清它嗎? http://js-x.com/page/javascripts__example.html?view

    1熱度

    1回答

    我無法理解這種僞我發現α+β修剪維基百科: function alphabeta(node, depth, α, β, Player) if depth = 0 or node is a terminal node return the heuristic value of node if Player = MaxPlayer for each ch

    2熱度

    1回答

    我正在編寫一個關於alpha-beta prunning的項目。當我在Xcode中運行它,我得到符號引用錯誤: Undefined symbols for architecture x86_64: "Eval(Node*)", referenced from: AlphaBeta(int, int&, int, int, int, Node*) in main.o ld:

    0熱度

    2回答

    阿爾法貝塔剪枝算法如下: function ALPHA-BETA-SEARCH(state) returns an action v <- MAX-VALUE(state, -∞, + ∞) return the action in ACTIONS(state) with value v function MAX-VALUE(state, α, β) returns a

    1熱度

    1回答

    我正在編寫一個棋盤遊戲。我已經生成了一個使用alpha-beta修剪的遊戲樹,並且有兩個選項: 使用迭代加深優化alpha-beta,以便在時間結束前保持一層。 通過反覆試驗,我知道每個電路板配置在時間限制內可達到的最大深度,而無需事先檢查較低層。 哪種方法更好,會使搜索更深入?例如,我知道在一開始,我可以生成深度爲X的樹,消耗所有可用的時間......迭代加深可以增加更多深度? 讓我知道如果我能

    1熱度

    1回答

    我目前正在寫一個國際象棋引擎,並取得了很大的進展,但我遇到了一個問題,並希望就這種方式發表一些看法。好吧,我的問題是,我的國際象棋AI沒有做出「最好」的舉動,似乎沒有看到簡單的事情,例如它的作品可能被收回或其他事情。我的alpha測試版如下。 int Search (TREE *tree, int ply, int wtm, int alpha, int beta) { if (0 ==

    2熱度

    1回答

    我試圖實現遊戲AI爲9Men的莫里斯遊戲。 到目前爲止,我有板這樣表示: public class board { public node []gNode = null; ... // so the table has 24 nodes, for 9 men morris game: gNode = new node[24];