gpu

    2熱度

    3回答

    我正在將某個場景渲染到屏幕外幀緩衝區(FBO),然後使用glReadPixels()讀取渲染圖像以在CPU上進行處理。處理涉及一些非常簡單的掃描例程和數據提取。 分析後,我意識到我的應用程序所做的大部分工作都花費在glReadPixels()以上 - 超過50%的時間。所以很自然的一步就是將處理移動到GPU上,這樣數據就不必複製。 所以我的問題是 - 什麼是將這樣的事情編程到GPU的最佳方式? G

    6熱度

    6回答

    顯然,在Flash 10中,可以使用GPU來計算着色器,並且如果用戶沒有兼容的GPU,則會回退到CPU。 問題是,CPU計算過濾器非常慢,最好檢測它是否不能使用GPU,並使用更少的效果。 如果使用gpu渲染,是否可以使用actionscript進行檢測?

    6熱度

    2回答

    我將某個場景渲染爲紋理,然後我需要以某種簡單的方式處理該圖像。我現在要做的是使用glReadPixels()讀取紋理,然後在CPU上處理它。然而這太慢了,所以我正在考慮將處理轉移到GPU。 我能想到的最簡單的設置是顯示一個簡單的白色四邊形,它在正交投影中佔據整個視口,然後將圖像處理位作爲片段着色器寫入。這將允許處理的許多實例並行運行以及訪問處理所需的任何紋理像素。 這是一個可行的做法嗎?這種做法很

    1熱度

    3回答

    我必須實現一個算法來分解體素中的三維體積。該算法通過識別切割平面的每一側上的哪些頂點以及第二步中哪條邊穿過切割平面來開始。 這個過程可以通過使用排序列表的好處來優化。識別分割點是O log(n)。但我必須維護一個這樣的排序列表,每個軸和頂點和邊緣。由於這是要被GPU使用的,所以我對內存管理(即CUDA)也有一些限制。侵入性列表M /樹和C是強加的。 有了完整的「體素化」,我預計最終會有4000點和

    3熱度

    5回答

    我打算開發一個使用C++,Qt和OpenGL進行實時視頻處理的工具。視頻疊加不是一種選擇,因爲着色器應該用於幀處理。目前我想象的步驟的順序如下: 解碼視頻(CPU) 預處理它(可選,CPU) 它Transer到視頻存儲器(使用DMA GPU) 進一步處理它使用頂點和片段着色器(GPU) 渲染它(GPU) 我在找一些一般意見地名釋義是什麼的一些推廣或者工藝可爲U sed在這裏。是否有充分理由使用Di

    11熱度

    3回答

    我有一個冗長的數字運算過程,它利用了OpenGL離屏渲染的優勢。這一切運作良好,但是當我去做三明治的時候,當我離開它自己工作時,我通常會發現它在我不在的時候墜毀了。 我能夠確定崩潰發生的時刻非常接近我正在使用的筆記本電腦決定關閉屏幕以節約能源。崩潰本身就在NVIDIA dll內部,所以沒有希望知道發生了什麼。 顯而易見的解決方案是關閉電源管理功能,將屏幕和視頻卡關閉,但我正在尋找更方便用戶的東西。