coreml

    1熱度

    1回答

    我已經將Keras模型轉換爲CoreML。我想確保CoreML使用半浮點數,而不是全浮點數。我怎樣才能做到這一點? 更新: 如何確保網絡的輸出是半浮點數或至少是浮點數(或任何其他類型)而不是Double?

    1熱度

    2回答

    蘋果在iOS 11中有新功能,允許您使用視覺框架在沒有模型的情況下執行對象檢測。我嘗試這些新的API,但發現來自VNDetectRectanglesRequest的結果不好。我是否正確使用API​​? 下面是一些很好的例子: 和一些不好的情況下: 這裏是我的代碼: func captureOutput(_ output: AVCaptureOutput, didOutput sampleBuffe

    8熱度

    2回答

    與其他許多開發者一樣,我也沉浸在蘋果新的ARKit技術中。這很棒。 然而,對於一個特定的項目,我希望能夠識別場景中的(真實)圖像,或者對其進行投影(就像Vuforia對其目標圖像所做的那樣),或者用它來觸發事件在我的應用程序。 在我的研究中,我偶然發現了Apple的Vision和CoreML框架。這看起來很有希望,儘管我還沒有能夠圍住它。 據我所知,我應該可以通過使用Vision框架找到矩形並將它

    2熱度

    2回答

    我最近一直在尋找到結合iOS開發人員專用的機器學習與發行我的應用程序。由於這是我第一次使用任何與ML相關的東西,當我開始閱讀Apple提供的不同型號描述時,我非常失落。它們具有相同的目的/說明,唯一的區別是實際的文件大小。這些模型之間的區別是什麼?你如何知道哪一個最適合?

    0熱度

    2回答

    我有一個數據集,從link下載。 我知道coremltool(由Apple創建)。 現在的問題是: 是有可能轉換斯坦福dataset到CoreML? 如果是 - 可以有人給我指令? 在此先感謝!

    2熱度

    1回答

    我正在開發使用新的Core ML框架的應用程序。我試圖實現如下: 1.選擇一個圖像,然後點擊它的任何對象來繪製矩形 2.之後,跟蹤該對象在多個圖像剛剛運行for循環 目前我在做用下列過程 檢測對象時用戶TAS和存儲它VNDetectedObjectObservation = VNDetectedObjectObservation(boundingBox的:convertedRect) 創建VNTr

    2熱度

    2回答

    我已將模型從keras轉換爲coremltools,將其添加到項目並添加到目標。然後,當我在模型類的導航器中按下模型時,我得到的「模型類尚未生成」。這是什麼意思?

    0熱度

    1回答

    我試圖從給定圖像中檢測對象。從研究我發現,我們能夠發現並使用以下過程跟蹤視頻的對象: private lazy var cameraLayer: AVCaptureVideoPreviewLayer = AVCaptureVideoPreviewLayer(session: self.captureSession) private func tapGestureAction(recognize

    0熱度

    1回答

    我試圖保留控制檯中的對象以顯示爲標籤(classifierText)。出現「僅從主線程使用UILabel.text」的警告。什麼似乎是問題,爲什麼項目被顯示爲標籤? var previewLayer: AVCaptureVideoPreviewLayer! let classifierText: UILabel = { let classifier = UILabel()

    0熱度

    1回答

    我使用VNImageRequestHandler和VNDetectRectanglesRequest來處理在圖像中查找矩形的請求。但是由於iOS11中的Vision僅提供條形碼,矩形,臉部識別,但是我想要在圖像中查找汽車,應該如何更改代碼以在圖像中查找指定的物體?