AR(增強現實)似乎是所有iOs開發人員今天都在關注的。我正在玩一個非常經典的寵物項目,用紋理擲骰子,如果可能的話,在骰子面上拍攝相機流。我面臨着最後一部分的幾個問題,我對專家的一些問題:增強現實:OpenGL視圖上的相機流
獲取視頻流需要AV基金會:AVCaptureVideoDataOutputSampleBufferDelegate
獲得的圖像緩衝區中,然後用石英之類的函數CGBitmapContextCreate
建立UIImage
。這表現在http://www.benjaminloulier.com/articles/ios4-and-direct-access-to-the-camera或蘋果AV基金會編程指南(見https://developer.apple.com/library/ios/#documentation/AudioVideo/Conceptual/AVFoundationPG/Articles/04_MediaCapture.html#//apple_ref/doc/uid/TP40010188-CH5-SW30)
然後我就可以創建一個紋理像我一樣的我「還是」圖像,並用GLKBaseEffect
使用(或着色器?)。
問題1:GLKBaseEffect
看起來真的很好很簡單,但我應該瞄準OpenGL 2和着色器嗎?
現在來自蘋果的RosyWriter演示使用核心視頻CVOpenGLESTextureCacheCreateTextureFromImage
函數直接綁定紋理而不創建中介UIImage
。這是 - 如演示描述中所述 - IOS 5中的新增內容。
問題2:這是映射紋理的更好方法嗎?
問題3:有一些有趣的框架,比如GPUImage,甚至可以使用3D遊戲框架。有沒有人使用這些反饋?到目前爲止,蘋果提供的框架看起來相當完整。
非常感謝!
非常感謝布拉德。事實上,CubeExample項目就是一個很好的例子。 – lazi74 2012-07-25 09:50:43