qtkit

    1熱度

    1回答

    我遇到了一個問題......我試圖在我們工作的應用程序中使用QTKit。唯一的問題是應用程序是用C++編寫的,而不是Obj-C。我通過Apple的文檔查找了答案,但我沒有找到任何有用的東西。 基本上我想要做的是在Obj-C中編寫一個控制器類,並通過C接口將其方法暴露給我的應用程序。我已經編寫了所有代碼,但是當我嘗試將它鏈接到示例C++應用程序時,它會在lib中找到Obj-C符號並且抱怨它們在那裏。

    5熱度

    2回答

    我正在嘗試使用可可從網絡攝像頭獲取圖像。我能夠使用QTKit和didOutputVideoFrame委託調用以RGBA格式獲取圖像,並將CVImageBuffer轉換爲CIImage,然後轉換爲NSBitmapImageRep。我知道我的相機在YUV本地抓取,我想要的是直接從CVImageBuffer獲取YUV數據,並在顯示YUV幀之前進行處理。 我的問題是:如何從CVImageBuffer獲取Y

    3熱度

    1回答

    我知道,如果我想提供一個QTMovie與來自任意源的數據,因爲它需要我可能不得不處理QTDataReference類,但不幸的是我對類似的經驗僅限於音頻數據回調與iPhone上的音頻緩衝器。 如果我用一些NSMutableData初始化QTDataReference,我怎麼會知道它何時需要更多的數據,此外,我將如何「清除」已經播放的電影數據,並在用戶返回時再次提供它(我希望它們是能夠)? 基本上我

    2熱度

    2回答

    所有QTKit示例都使用秒來製作範圍。不幸的是,我有幀數,需要幀準確。如果我能弄清楚如何從我的電影中解脫出來,我想我可以乘以幀頻。

    0熱度

    1回答

    播放電影,我想知道如何在Cocoa應用程序

    2熱度

    2回答

    看起來使用核心音頻錄製音頻過於複雜。雖然QTkit是基礎且腳踏實地的,但是。我看到的所有例子都將視頻和音頻整合在一起。有人有或知道使用QTkit錄製音頻的例子嗎?

    2熱度

    1回答

    請多多包涵的時候,我知道我在做什麼可以聽起來很奇怪,但我可以保證有一個很好的理由。 我拍了電影與我的相機,爲AVI。我將電影導入iMovie,然後將單幀分解爲PNG。然後,我用下面的代碼 movie, error = QTMovie.alloc().initToWritableFile_error_(out_path, None) mt = QTMakeTime(v, scale) attr

    8熱度

    1回答

    由於Snow Leopard,QTKit現在正在從QTMovies frameImageAtTime:withAttributes:error:返回色彩校正圖像數據。給定一個未壓縮的AVI文件,相同的圖像數據在Snow Leopard vs. Leopard中以更大的像素值顯示。 目前,我正在使用frameImageAtTime來獲取NSImage,然後請求該圖像的tiffRepresentati

    0熱度

    2回答

    我試圖運行位於我的應用程序包中的QT電影。無法讓它工作。有人可以建議嗎? 謝謝。 保羅 -(IBAction)runInternalMovie:(id)sender [ NSString *internalPath; NSURL *internalURL; QTMovie *internalMovie; internalPath = [[NSBundle mainBundle

    1熱度

    1回答

    我試圖創建一個視頻播放器,在最小化時在碼頭上播放。我從QTMovie中抓取當前幀並間歇性地將其設置爲最小化圖標,但是當窗口最小化時,電影(或相關聯的QTMovieView)會暫停。我怎樣才能防止這種行爲?