gpu

    1熱度

    1回答

    我搜索一些關於GPU如何工作的信息。從不同的來源中我發現用於硬件加速的L(變換和照明)技術。例如,它計算多邊形照明。但據我所知,今天開發人員正在使用可編程圖形管道,並通過着色器創建照明。 那麼,今天用的T & L是什麼?

    1熱度

    3回答

    我有tensorflow-gpu 1.2.1和keras在Ubuntu 16.04上。 我不能夠執行: from kears.utils import multi_gpu_model 有沒有人有multi_gpu_model成功在他們的文檔的常見問題解答部分描述? 我有一個4 GPU計算機與4個GeForce GTX 1080 Ti卡,並希望使用他們所有。 這是我得到的錯誤: import k

    1熱度

    3回答

    我有一個分割圖像作爲獨特標籤1 ... k的2維矩陣。例如: img = [1 1 2 2 2 2 2 3 3] [1 1 1 2 2 2 2 3 3] [1 1 2 2 2 2 3 3 3] [1 4 4 4 2 2 2 2 3] [4 4 4 5 5 5 2 3 3] [4 4 4 5 5 6 6 6 6] [4 4 5 5

    1熱度

    1回答

    在下面的代碼中,我嘗試搜索xgboost的不同超參數。 param_test1 = { 'max_depth':list(range(3,10,2)), 'min_child_weight':list(range(1,6,2)) } predictors = [x for x in train_data.columns if x not in ['target', 'id']] gsea

    3熱度

    1回答

    我有兩個不同的機器上安裝兩顆GPU。我想建立一個集羣,讓我通過使用兩個GPU一起學習Keras模型。 Keras blog在顯示兩段代碼分佈式培訓部分和鏈接官方Tensorflow documentation。 我的問題是,我不知道如何學習我的模型,寫在Keras,用實際描述Tensorflow對象的過程Tensorflow文檔。 例如,我應該怎麼做,如果我想多GPU的集羣上執行下面的代碼? #

    2熱度

    1回答

    如何編程keras或tensorflow以劃分多GPU上的訓練,假設您處於一個amaozn ec2實例,其中有8個GPU,並且您希望使用它們全部訓練得更快,但是您的代碼僅適用於單個CPU或GPU?

    1熱度

    1回答

    這與使電腦進入睡眠模式相似。僅供參考:我在使用Kubernetes管理容器的情況下提出這個問題。 問的原因是我們想運行許多交互式作業,並希望當用戶沒有積極處理這些作業時暫停這些作業,以便資源可以被其他用戶發佈和使用。

    0熱度

    1回答

    我正在嘗試學習CUDA。我在基於GPU的文章this的幫助下開始嘗試矩陣乘法。 我的主要問題是我無法理解如何訪問內核中的2D數組,因爲訪問2D數組與矩陣[i] [j]有點不同。 這是我堅持的部分: for (int i = 0; i < N; i++) { tmpSum += A[ROW * N + i] * B[i * N + COL]; } C[ROW * N + COL] =

    0熱度

    1回答

    您好我想通過安裝CUDA,cuDNN等來讓Tensorflow GPU工作。我遵循了Tensorflow網站上的所有步驟以及幾個安裝教程。但是,我一直卡住了一段時間,出現以下錯誤。有誰知道什麼可能是錯的?提前致謝。 >>> import tensorflow Traceback (most recent call last): File "C:\Users\maxhx\Anaconda

    1熱度

    1回答

    已經測試了一些GPU +成功NVENC X.264編碼的AWS現在我與谷歌的雲計算測試(特斯拉P100 GPU運行Windows SVR的2016) 它不會看起來像NVENC正在工作,有沒有人用Windows來實現這一點?或有任何指針? GPU Status on Google Cloud