3d-rendering

    1熱度

    1回答

    我正在處理中使用2D深度圖像創建3D地圖。我使用saveFrame()捕獲了圖像,但是我很難將這些保存的幀轉換爲3D。有任何網站或代碼我可以通過尋找幫助?任何幫助將非常感激。

    0熱度

    1回答

    我想創建一個照片般逼真的靜態渲染房間內部。我想知道我對開源渲染器有哪些選擇。它不需要快速渲染。起初,我嘗試了SketchUp和照片渲染器插件,但它們的代價很高,在我看來,與編程可以完成的工作相比,它笨重,而且功能和質量似乎很難實現。我需要如下能力: 擴散 例如半透明的磨砂玻璃 材料色調 例如有色車窗 思考 鏡狀:例如具有半反射光滑表面的彩色材料 漫反射例如由點光產生的環境光反射離開牆 陰影 例如產

    0熱度

    1回答

    客戶在Windows 7 64位計算機上使用maxwell渲染(管理器,監視器和節點)。 當場景呈現完畢以下錯誤消息出現: -node QObject::connect: No such signal QApplication::messageReceived(const QString&) QIODevice::seek (QTcpSocket): Cannot call seek on

    0熱度

    1回答

    我一直在嘗試渲染已經使用3ds max創建的場景。我將所有對象導出爲obj文件,並使用three.js庫在瀏覽器上渲染場景。對於我嘗試使用Cubecamera方法的思考,但它沒有給出預期的結果。對於陰影,我嘗試了陰影貼圖,但我想我沒有正確使用它們。我想知道是否可以做任何我想使用的只是three.js和WebGl。如果是的話,請告訴我如何。此外,我知道3ds max軟件使用Mental ray渲染器

    0熱度

    1回答

    如何在我的iOS應用程序中使用this Mac OS X render library?我知道這可以做,但我不知道如何。我不需要代碼示例,但是如果有人能夠基本描述我必須做什麼來首先獲得此運行並在iOS應用程序中顯示渲染。

    1熱度

    2回答

    我需要渲染3D模型,該模型是型.dae [COLLADA] iOS中的, 我已經搜查,發現幾個環節 Wavefront Molecules openscenegraph iSGL3D ,但我不知道他們是否會支持.dae文件。 給iOS開發者有什麼框架嗎? ,這樣它可以非常可靠。 任何人都可以請幫助我這個。 請注意:我是新來的3D渲染,我們可以在iOS中直接呈現.dae文件嗎?或者我們是否需要轉換爲

    0熱度

    1回答

    讓我們坐我有點雲數據,我不知道傳感器的位置(它不是[0,0,0])。有沒有一種很好的方法來估算原始傳感器的位置? 例如,從下面的點雲, 點雲數據: 發現的觀點,使點雲看起來像這樣(像深度圖)因此,有沒有(或最少)可以觀察到孔。 點雲看上去就像觀點這張照片,我想找到:

    2熱度

    1回答

    3D引擎是否需要分析地圖上的每個對象以查看它是否會渲染。我的理解是,線從中心投影的一個像素在視圖計劃,發動機會發現,與它相交的最接近的計劃,但是那不是意味着每個像素的引擎需要在地圖上分析所有對象,有沒有辦法限制分析的對象。 感謝您的幫助。

    0熱度

    1回答

    我正在爲我的.stl文件生成骨架爬升算法,我正在獲取輸出。但對於此代碼,我需要從命令提示符傳遞參數我將如何傳遞參數而無需打開命令提示符?是否有可能將輸入傳遞給gui的這段代碼?請給我一些建議....你可以找到從給定鏈路的完整代碼...提前 http://www.cse.cuhk.edu.hk/~ttwong/papers/asc/asc.html 感謝

    2熱度

    1回答

    目前我正在使用bablyon.js引擎,目前唯一的主要問題是視野。 視野很淺,它會導致渲染效果不佳。 目前我使用BABYLON.FreeCamera()作爲主要的相機附帶的控制,這是我使用的格式: var camera1 = new BABYLON.FreeCamera("camera", new BABYLON.Vector3(x,y), scene); 我做了一些環顧四周,從我的搜索似乎指