ignite

    1熱度

    2回答

    當我們使用IgniteQueue內星火圖如下 sparkDataFrame.map(row => { igniteQueue.put(row) }) 我們得到SparkException:任務不序列化的例外。這是因爲IgniteQueue不是可序列化的。 有沒有辦法使IgniteQueue可序列化? 在此先感謝!

    0熱度

    1回答

    我正在開發基於Spring的Web應用程序。我在Maven依賴項中添加了Apache ignite。 這是非常簡單的應用程序,它只有2個休息api。 一個是通過鍵查詢哪個返回對象。另一個是放數據。 但我有一個問題:當我開發額外的實現時,我不知道如何部署此應用程序。 應用程序應始終可用。但是我將它部署到一個節點,那麼該節點可能不可用。 分佈式內存應用程序部署有很好的方法嗎?

    0熱度

    1回答

    我們需要獲取Ignite Queue的內容,該Ignite Queue將羣集中的大型數據集保存爲Spark數據框。 目前我們做下圖。 var array: Array[Row] = Array() array = igniteQueue.toArray(array) 但這帶來的igniteQueue到單個邊緣節點的所有分發的內容作爲使溢出異常的陣列。 有沒有辦法將spark數據作爲Spark

    0熱度

    1回答

    運行與點燃CacheEvents程序相關的github示例時,未獲取任何輸出(示例鏈接:https://github.com/apache/ignite/blob/master/examples/src/main/java/org/apache/ignite/examples/datagrid/CacheEventsExample.java)。任何人都可以幫助我嗎? 例子: package com

    1熱度

    1回答

    我們如何每隔n秒清空一次緩存(以便我們可以對第n個第二個窗口 - 批量窗口查詢)的數據運行查詢?我只能在點燃代碼中找到基於FIFO和LRU的驅逐策略,其中驅逐策略基於添加或修改的緩存條目。 我明白,我們可以使用CreatedExpiryPolicy cfg.setExpiryPolicyFactory(FactoryBuilder.factoryOf(new CreatedExpiryPolicy

    1熱度

    1回答

    我打算在將其放入緩存之前使用IgniteDataStreamer和StreamVisitor API過濾某些類型的數據。 是否有任何其他方式或API用於在將數據放入點火緩存之前進行過濾。 我知道這樣的事實,一旦數據被放入緩存,然後正常的SQL過濾方式是可能的。

    1熱度

    1回答

    根據我們當前的代碼實現,我們需要將System.Data.DataTable存儲在緩存中。它在使用HttpRuntime.Cache時可以正常工作,但不能在Apache Ignite中使用。 以下是代碼片段。 IIgnite ignite = Ignition.Start(); ICache<string, object> cache = ignite.GetOrCreateCache<stri

    1熱度

    1回答

    從升級後出現錯誤「衝突類型ID [type1 ='行',type2 ='行',typeId = 113114]」 Apache Ignite 2.0至2.1(.Net)。升級後我沒有更改任何代碼,所以想知道如何創建和使用動態二進制對象的期望改變了?我看着AddType方法。也許它應該返回而不是拋出,也許該方法的名稱是誤導性的,它應該是GetOrAddType? 將AddType方法: https:

    0熱度

    1回答

    我從docs瞭解到,使用分區緩存實現了複製緩存,其中每個密鑰都有一個主副本,並且還在羣集中的所有其他節點上進行備份&當查詢數據時,將從主備份&用於提供查詢的節點。 但我看到默認緩存寫同步模式是PRIMARY_SYNC,其中客戶端不會等待備份更新。這是否意味着我必須明確地將其設置爲FULL_SYNC以用於複製高速緩存,因爲響應依賴於對主要&備份的查找?

    2熱度

    1回答

    嘗試在Apache Ignite v2.1中使用新的Ignite Persistent Store時出現錯誤。我創建了一個新的空白.Net控制檯應用程序,並添加了Apache Ignite v2.1 nuget包。 當調用ignite.SetActive(true)時引發以下兩個異常; 我嘗試了一堆不同的選擇,但是這似乎是我能夠最大限度地發揮它的作用。它將數據寫入Work文件夾,但它永遠不會超過S