prometheus

    1熱度

    1回答

    我們的團隊決定切換到Prometheus監控。所以我想知道如何設置高可用容錯Prometheus安裝。 我們有許多在AWS ECS上運行的小型項目,幾乎所有的服務都是集裝箱化的。所以我有一些問題。 我們應該容納普羅米修斯嗎? 這意味着每個實例運行2個EC2實例,每個實例運行一個Prometheus容器,每個實例運行一個NodeExporter。並在不同的實例中在每個實例的Wave Mesh容器中運

    0熱度

    1回答

    registry = CollectorRegistry() g = Gauge('some_metrices', 'metrics', "[node]",registry=registry) g.lables("worker").set(101) push_to_gateway('localhost:9091', job='batchA', registry=reg

    0熱度

    1回答

    我有一個普羅米修斯警告這樣的: ALERT etcdNoLeader IF etcd_server_has_leader{job="etcd"} == 0 FOR 1m 發生什麼情況,如果etcd_server_has_leader指標停止生成的數據? 警報是否起火?它有什麼作用嗎?

    0熱度

    1回答

    我有一個指標service_replicas_actual。此度量標準的尺寸爲name。我需要一個查詢,它將按name維度進行分組並顯示最近的值。 name尺寸表示Docker服務,並且service_replicas_actual記錄任何給定服務在任何給定時間運行的副本(任務)數量。我需要創建一個表格,顯示按服務名稱分組的當前副本數量。 我無法真正找到任何有關如何按維度分組然後選擇最新值的文檔。

    0熱度

    1回答

    過濾搬運工容器我已經運行幾個搬運工容器: docker ps CONTAINER ID IMAGE COMMAND CREATED STATUS PORTS NAMES 736caaa764f4 ubuntu "/bin/bash" 2 hours ago Up 2 hours quirky_morse e2869c98e

    0熱度

    1回答

    我使用公式來計算約。 的MySQL實例即(簡化的和寫入PromQL)的最大內存消耗讀取: ( mysql_global_variables_key_buffer_size + mysql_global_variables_query_cache_size + mysql_global_variables_tmp_table_size + mysql_globa

    1熱度

    1回答

    我嘗試用一​​些普羅米修斯提醒的語法: ALERT <alert name> IF <expression> [ FOR <duration> ] [ LABELS <label set> ] [ ANNOTATIONS <label set> ] 有沒有調試控制檯上的聲明,而無需修改普羅米修斯配置並重新啓動它以正確的方式?

    1熱度

    1回答

    背景 我有我的Kubernetes集羣上安裝普羅米修斯(在谷歌集裝箱工程師主持)。 的問題 我無法弄清楚如何刮對象添加到普羅米修斯服務器。 prometheus.io網站介紹瞭如何將一個prometheus.yml文件(其中包含一系列刮擦目標)安裝到Prometheus Docker容器 - 我已經在本地完成了該工作,並且它可以正常工作。但是,我不知道如何爲通過Kubernetes-Helm安裝的

    0熱度

    1回答

    我在一臺服務器上安裝了節點導出器和Prometheus,並且能夠在Prometheus中獲得指標。 但是,如果我添加另一個節點如何使用節點導出器將該新節點的度量值提取到我的Prometheus服務器。我在新服務器上安裝了節點導出器,無法弄清楚如何將這些指標發送到其他服務器上的Prometheus服務器。 我Prometheus.yml文件看起來像這樣 global: scrape_int

    1熱度

    1回答

    使用普羅米修斯黑匣子出口商我想知道如何檢索度量或價值「a.k.a」的「年齡」「受監控的服務需要多長時間?」。我知道我可以解決這個問題,我正在編寫自己的導出器,它帶有相關時間戳的度量標準,但是我想知道我能否以某種方式使用現有函數? 我的設置....普羅米修斯刮配置: scrape_configs: - job_name: 'blackbox' scrape_interval: 120s