7
由於在OpenGL中使用幾何着色器進行分層渲染在某些驅動程序/硬件上看起來有點不禮貌,所以我想用我自己的解決方案替換功能。這通過使用大紋理作爲rendertarget,例如300的分辨率。然後通過在紋理中渲染100個塊來模擬分層渲染。與分辨率這將導致9瓦/層如下面的樣機:渲染爲紋理的一部分
的問題是;如何與OpenGL的這個?據說在幾何着色器的幫助下,一次渲染場景到不同的瓷磚。
由於在OpenGL中使用幾何着色器進行分層渲染在某些驅動程序/硬件上看起來有點不禮貌,所以我想用我自己的解決方案替換功能。這通過使用大紋理作爲rendertarget,例如300的分辨率。然後通過在紋理中渲染100個塊來模擬分層渲染。與分辨率這將導致9瓦/層如下面的樣機:渲染爲紋理的一部分
的問題是;如何與OpenGL的這個?據說在幾何着色器的幫助下,一次渲染場景到不同的瓷磚。
有沒有簡單的方法來做到這一點。您可以使用幾何着色器將它一起破解,但它很可能會很慢,因爲您必須執行大量幾何實例化,然後使用幾何着色器進行頂點着色,因爲頂點着色器不在遊戲中。
基本解決問題的方法:
謝謝你的回答。也許我應該等待GPU製造商把他們的驅動程序集合起來(ATI)。所以他們支持將渲染圖層替換爲'texture2Darray'。 – 2010-11-21 12:00:01
是的,絕對。問題是,如果ATI能夠讓他們的驅動程序正常工作...... – 2010-11-21 12:19:23