nvidia

    2熱度

    1回答

    Docker允許使用-v選項在其他容器之間共享一個目錄。 但它遮蔽了主機上的任何現有目錄。 如何讓主機目錄對docker實例可見? 例如,這在/opt創建一個掛載點: nvidia-docker run -i -t --name x nvidia/cuda:7.5-runtime-ubuntu14.04 -v /opt 但陰影主機/ opt中。這是安全的,通常需要的行爲。但是對於開發和實例設置

    0熱度

    1回答

    我正在尋找一種快速方法來減少排列爲大向量的等長度的多個塊 。 我有N個排列成一個大陣列的子陣列(連續元素)。每個子陣列都有一個固定的大小:k。 所以整個陣列的大小是:N * K 我正在做的是調用內核N次。每次在它計算子陣如下還原: 我會遍歷包含在大矢量的所有子陣列: for(i=0;i<N;i++){ thrust::device_vector<float> Vec(subarray,

    1熱度

    1回答

    我遇到了登錄循環問題。我已經嘗試了幾種解決方案,比如檢查.Xauthority文件,啓動lightdm服務等等。但問題依然存在。我檢查的.xsession-errors文件它給了我以下日誌 openConnection: connect: No such file or directory cannot connect to brltty at :0 upstart: gnome-sessio

    0熱度

    1回答

    我一個GPU節點上運行的雲實例通信。我安裝了CUDA,nvidia-smi顯示了驅動程序細節,內存使用情況。幾天後,我面對這個錯誤 「NVIDIA-SMI已經失敗,因爲它無法與NVIDIA驅動程序通信,確保最新的NVIDIA驅動程序安裝並運行」。 我安裝了最新的驅動程序(英偉達-375.39特斯拉M40圖形處理器)。我仍然面臨同樣的問題。是否有任何方法來 i)調試爲什麼nvidia-smi無法與驅

    0熱度

    1回答

    在我的大學裏,我們有一個擁有Tesla GPU的羣集。但是,資源由多個部門共享,超級計算部門要求用戶唯一地提供需要在羣集中運行的程序的模塊/代碼對象。在這種情況下,我搜索了一些關於這方面的信息。超級計算機有一個隊列系統(這在超級計算機中通常是共享的)。據我所知,超級計算部門需要按照this這樣的程序進行。那麼,如何獲得爲GPU編譯的Keras-Theano模型的目標代碼?就像gcc model.c

    0熱度

    3回答

    的最新版本的Tensorflow(1.0)中安裝CUDA 8.0我已經升級到Tensorflow 1.0版,並安裝了CUDA 8.0 cudnn 5.1版本和nvidia驅動程序最新375.39。我的NVIDIA硬件是Amazon Web Services上使用p2.xlarge實例(一種特斯拉K-80)的硬件。我的操作系統是Linux 64位。 每次都遇到我用命令的時間一個錯誤信息:tf.Ses

    -3熱度

    2回答

    在暫停Ubuntu 16.04這個奇怪的東西在每個窗口的邊界。 我已經嘗試了四個這種驅動程序,但它沒有幫助。 驅動程序:

    0熱度

    1回答

    我的NVidia Quattro 600 GPU運行正常,但運行nvidia-smi.exe時顯示「權限不足」。 我在管理員模式下執行命令,驅動程序都是最新的。 如何解決權限問題? 運行How to verify the usage of the GPU?中提到的測試,我得知我「在CPU上運行」。 (擺弄GPU,因爲我試圖運行CNTK的例子。)

    0熱度

    1回答

    On this page,它說「的GeForce」支持 硬件加速編碼和解碼,支持NVIDIA的GeForce的Quadro,特斯拉和網格產品與費米,開普勒,麥克斯韋和Pascal一代GPU。 但我找不到GeForce在同一頁上列出的矩陣。 GeForce支持與否?

    -1熱度

    1回答

    系統: 的Ubuntu 16.04.2 cudnn 5.1,CUDA 8.0 我已經theano從混帳(最新版本)安裝。 當我從https://github.com/yusuketomoto/chainer-fast-neuralstyle/tree/resize-conv運行生成示例時,它會報告內存是否已用完CPU或GPU。 python generate.py sample_images/tu