nvidia

    1熱度

    1回答

    我在某些CUDA函數中遇到了一些問題。 我想分開.cu文件與Nvidia示例中的.cu文件和.cpp文件。內核是一個函數模板。當我在C++文件中聲明它爲外部函數時,我收到一個錯誤。 的定義是這樣的: template <int BLOCK_SIZE> __global__ void matrixMulCUDA(float *C, float *A, float *B, int wA, int w

    0熱度

    1回答

    我在MacOS Sierra 10.12.4上嘗試使CUDA 8.0在我的MacBook Pro(2013年末)上與CUDA兼容的NVIDIA GeForce GT 750M一起工作。 我跟着NVIDIA installation guide和安裝的Xcode 8.2和相應的命令行工具,但是當我嘗試編譯我收到以下錯誤示例: $ make -C 1_Utilities/deviceQuery /De

    3熱度

    1回答

    隨着gcc 7.1的發佈,我們現在可以配置gcc for openmp 4.5,卸載到Nvidia PTX GPGPU。這就是他們在發佈說明(大約)中所說的。 所以我的問題是,是否有任何特殊的標誌來激活此配置時,編譯openmp 4.5目標nvidia設備?

    1熱度

    1回答

    當我向具有兩個GPU的節點提交帶選項--gres = gpu:1的SLURM作業時,如何獲得分配給作業的GPU ID?有沒有爲此目的的環境變量?我使用的GPU都是NVIDIA GPU。 謝謝。

    1熱度

    1回答

    我試圖利用我的Nvidia Geforce GT 740M進行並行編程,使用OpenMP和鏗鏘3.8編譯器。 當在CPU上並行處理時,我設法得到想要的結果。但是,在GPU上處理時,我的結果幾乎是隨機數。 因此,我認爲我沒有正確地分配我的線程團隊,並且可能會有一些數據競賽。我想我必須以不同方式執行我的for循環,但我不知道錯誤可能在哪裏。 #include <stdio.h> #include <

    1熱度

    1回答

    我有一臺配有兩個nvidia gtx960卡的服務器。我不使用交叉火技術。也就是說,gpu設備ID是0和1.我想將我的OpenGL程序綁定到設備1,但將設備0空閒以供其他應用程序使用。我如何在我的C++代碼中執行此操作?非常感謝。

    1熱度

    1回答

    我有一個碼頭容器,我試圖運行一個pyqt應用程序。一切運作良好,除了一大塊的GUI不能渲染。泊塢窗日誌扔了這一點: libGL error: failed to load driver: swrast X Error: GLXBadContext 169 Extension: 154 (Uknown extension) Minor opcode: 6 (Unknown request)

    0熱度

    1回答

    我目前正在嘗試在我的Ubuntu 16.04機器上安裝火炬。我已經安裝了Cuda 8.0,nvidia-smi爲我提供了我正在使用的375.66版本。 但是,試圖運行 ./install.sh 從~/torch文件夾中時,我得到了以下錯誤消息。 -- Installing: /home/yenicelik/torch/install/lib/luarocks/rocks/optim/1.0.5

    2熱度

    1回答

    是否可以在GPU與遠程主機之間執行RDMA操作? Nvidia網站上的在線文檔只談到了在GPU之間做RDMA,並沒有提到在GPU主機之間做這件事的可能性。 注意:我有權訪問配備K80 GPU和Mellanox NIC的羣集。

    0熱度

    1回答

    我有一臺運行在Ubuntu 14.04上的Nvidia GTX 1080。我試圖使用tensorflow 1.0.1來實現卷積自動編碼器,但程序似乎根本沒有使用GPU。我使用watch nvidia-smi和htop對此進行了驗證。運行該程序後的輸出如下: 1 I tensorflow/stream_executor/dso_loader.cc:135] successfully opened C