google-cloud-bigtable

    0熱度

    1回答

    我試圖使用的Cloud Bigtable版API,雖然我知道它在我的Apache梁的工作,當我嘗試使用API​​直接我遇到這樣的錯誤: Caused by: java.lang.NoSuchMethodError: com.google.auth.oauth2.GoogleCredentials.getApplicationDefault(Lcom/google/api/client/http/H

    0熱度

    1回答

    我需要從每個我的知識流媒體數據流job.As訪問Bigtable的在轉型的一個訪問Bigtable的最佳做法有兩種方式: 1),我們可以創建連接錯誤從doFn的startBundle方法到bigtable,並從processElement方法中的bigtable訪問數據。在這種方法中,每次新元素進入時,dataflow sdk都會創建與Bigtable的新連接。 2)在轉換obj創建時創建bigt

    1熱度

    2回答

    我正在嘗試使用HBase API連接到Google Cloud Bigtable實例。我正在使用Java 1.8。我跟着下面的教程: https://cloud.google.com/bigtable/docs/samples-java-hello https://cloud.google.com/bigtable/docs/using-maven 但由於某些原因,我無法連接到該Bigtable的

    0熱度

    2回答

    我正在研究從某些傳感器讀取數據的IOT應用程序,我需要將此數據填充到Google Cloud Bigtable實例中。我使用Java 1.8進行開發,我將使用HBase API進行Bigtable相關操作。 有人能讓我知道什麼是創建一個Bigtable實例的步驟,所以我可以從我的Java應用程序連接到它? 謝謝

    0熱度

    1回答

    我試圖通過使用cloud-bigtable-client(https://github.com/GoogleCloudPlatform/cloud-bigtable-client)的數據流向Bigtable應用突變(增量)。 這裏是我的工作,做什麼一個高度概括: PCollection<SomeData> somedata = ...; somedata.apply(ParDo.of(n

    0熱度

    1回答

    我正在測試一個小的Bigtable集羣(最少3個節點)。我在Google控制檯上看到,隨着寫入QPS級別接近10K,CPU利用率接近推薦的最大值〜80%。 從我所瞭解的情況來看,QPS指標是針對整個實例的,而不是針對每個節點的?在這種情況下,爲什麼在技術上達到CPU閾值時,實例的QPS負載僅爲30K指導最大值的1/3?我只是想了解是否有數據上傳程序(通過Dataflow完成)。我也懷疑爲什麼我從來

    0熱度

    1回答

    我知道我們可以使用HBase API在BigTable上執行checkAndDelete。我想知道是否有一種方法可以提交checkAndDelete列表,這樣我就不需要一個接一個地執行了。我主要擔心非批處理的性能... 謝謝!

    1熱度

    1回答

    我正在使用Google Dataproc羣集來對Bigtable運行Spark M/R作業。 通過網絡從Bigtable發送到Dataproc羣集以執行地圖階段還是地圖階段在Bigtable羣集上物理運行?

    1熱度

    1回答

    我正在嘗試使用google-cloud-bigtable庫。我的意圖是查詢bigtable,其中響應應該只返回列名稱/限定符,但沒有值。 我試過不同的方法,像cells_per_row_limit_filter和block_all_filter,但他們似乎沒有做我想要的工作。 我不希望'行'被過濾;我只是不想在結果中使用單元格值。

    0熱度

    1回答

    比方說,我創建了一個包含10個初始分割點並因此包含10個初始平板的表格,過了一段時間後,其中一個表達式達到最大尺寸並自動分割。 假設我的密鑰是partition_counter,並且我的計數器不斷增加,我將插入到新創建的平板電腦中,而不會插入到舊的平板電腦中。 在舊的記錄中的所有記錄達到其TTL(併發生壓縮)之後,平板電腦將變空。 此平板電腦是否自動刪除?如果沒有,是否有任何性能或成本影響的空片附