雖然我一直在研究的最佳實踐和嘗試多種選擇一個正在進行的項目(即Unity3D iOS的項目Vuforia與本地集成,提取出與AVFoundation然後通過基於雲的圖像識別的圖像幀) ,我得出的結論是我想使用ARkit,Vision Framework和CoreML;讓我解釋。視覺框架與ARkit和CoreML
我不知道我怎麼會是能夠捕捉ARFrames,使用視覺框架來檢測和使用CoreML模型跟蹤給定的對象。
此外,這將是很好有一個邊框,一旦對象被識別一起在手勢觸摸添加一個AR對象的能力,但是這是有可能獲得實實在在的項目下來後方可實施。
這無疑是可能的,但我不確定如何通過視覺的ARFrames到CoreML通過進行處理。
任何想法?
從基礎開始。哦,理解你**必須**使用Xcode 9和iOS 11.現在,通過「基礎知識」,我的意思是瞭解每件* *和* *不是*。 Vision將成爲最高級別 - 它可以跟蹤和使用CoreML模型。但你知道嗎?如何訓練模型?如果不是,那麼先學習ML,然後*然後*學習如何將訓練好的模型導入到CoreML中。我不會解決ARKit問題(對不起,這對於我的利基來說太廣泛了 - 你確定它需要你的?),但是如果你想直接解決CoreML,你需要了解CVPixelBuffer是什麼。祝你好運! – dfd
感謝您的回覆;是的,我同時使用Xcode 9和iOS 11.我可以訓練一個模型,因爲這是我真正進入編程的開始(在Python中的NLP),我可以將模型轉換並插入Xcode。除此之外,我還可以使用預先訓練好的模型來暫時測試應用程序的功能。我無法理解使用CoreML模型提取ARframe並通過Vision傳遞它的方法。還沒有真正的深層文件,並且很好奇,如果有人可以擺脫見解@dfd – pythlang
不客氣。現在,你有什麼特定的問題?使用Vision跟蹤對象的東西?將訓練有素的模型導入CoreML?顯示邊界框? – dfd