hardware-acceleration

    1熱度

    1回答

    對於在Erlang中啓用GPU加速的管道,我有一個概念性的想法。該API將包含高階函數,它們會帶來樂趣,二進制和一些標誌,對BEAM字節碼進行運行時檢查,以查看是否可以將樂趣編譯爲OpenCL,緩存結果,然後類似於更高階的函數列表模塊。如果樂趣無法轉換爲OpenCL,則該過程將失敗。 所有的操作都將在二進制文件上完成,因爲缺陷列表在內存中沒有連續地表示,導致大量工作將它們移入和移出GPU內存。可以

    0熱度

    1回答

    提供了當代硬件,我想知道什麼是我可以有效地(例如在1個CPU週期)perfrom按位操作的位陣列的最大尺寸。例如,對於64位處理器,我假設答案只是64.這是真的嗎?我還能在GPU上獲得多少資金?如果我想構建一個簡單的ASIC,或者我能得到多少?

    0熱度

    1回答

    我爲我的ARM板交叉編譯Qt 5.5.1,並試圖使用gstreamer和Qt播放視頻文件。我有gstreamer上的以下管道工作正常。 gst-launch-1.0 filesrc location=tracked.mp4 ! qtdemux name=demux demux.video_0! queue ! h264parse ! omxh264dec ! nveglglesink -e

    6熱度

    1回答

    現在,我需要在畫布上繪製許多圖像。畫布大小爲800x600px,我有很多256x256px(有些小)的圖像來繪製,這些小圖像將在畫布上組成一個完整的圖像。我有兩種方法來實現這一點。首先,如果我使用canvas 2D上下文,即context = canvas.getContext('2d'),那麼我可以使用context.drawimage()方法將每個圖像放在畫布的正確位置。 另一種方法,我使用W

    0熱度

    1回答

    我讀了一些關於TYPE_LINEAR_ACCELERATION private SensorManager mSensorManager; private Sensor mSensor; ... mSensorManager = (SensorManager) getSystemService(Context.SENSOR_SERVICE); mSensor = mSensorManage

    1熱度

    1回答

    我有一個自定義View.When打開硬件加速並使用函數Canvas.drawPath()繪製一個長路徑時,無法繪製此路徑。但是當我關閉硬件加速時,這個問題就會消失。但是,硬件加速是確保接口順利運行所必需的。我如何解決這個問題?

    5熱度

    2回答

    我正在使用Media Foundation的Source Reader編寫硬件加速的h264解碼器,但遇到了問題。我跟着this tutorial,並支持自己的Windows SDK媒體基礎示例。 當硬件加速關閉時,我的應用程序似乎工作正常,但它不提供我需要的性能。當我通過傳遞一個IMFDXGIDeviceManager到IMFAttributes用於創建閱讀器來打開加速時,事情變得複雜。 如果我

    1熱度

    1回答

    我正在考慮在Intel i7平臺上結合OpenCL和AVX來實現並行機會,但我不認爲這是可能的。雖然,我知道CPU和iGPU共享相同的內存帶寬,但我不確定他們是否共享任何其他硬件? 在iGPU(「Intel Graphics Processor」)或AVX設備(「CPU cores」)上打開OpenCL嗎?

    0熱度

    2回答

    我嘗試從我的c920 Logitech相機與gstreamer v4l來源。我有一個與ubuntu 14.04版本4.9的odroid XU4。我正在嘗試使用硬件加速來避免使用大量的CPU。 我安裝的GStreamer從源,因爲版本> 1.2並不能直接使用的Ubuntu 14.04 我做了這樣的: git clone -b 1.10 https://github.com/GStreamer/gs