logstash

    0熱度

    2回答

    我們可以通過重寫相應類中的equals/hashcode方法來比較兩個對象,但這兩個對象在我們的寫入方法(equals/hashcode)的上下文中將是相等的! 即使我們發現兩個對象具有相同的所有屬性值,這是否意味着除此之外的任何內容?我的意思是,根據編譯器/ JVM,這兩者將是不同的對象,對吧?我想他們也會擁有兩個不同的記憶位置,不是嗎?我是新來的Java,所以如果我說什麼都很愚蠢,我會很感激,

    0熱度

    3回答

    我解析XML數據從文件導入到這個類的對象列表: public class VerificationSample { public double DesiredA { get; set; } public double DesiredB { get; set; } public double DesiredC { get; set; } // ..

    4熱度

    1回答

    我正在嘗試使用logstash讀取日誌文件。我使用grok將郵件中的一個數字解析爲數字並將其作爲字段存儲。 但是據我所知,我只得到Kibana來描繪消息隨着時間的流逝而發生的次數。 我沒有任何運氣使用Kibana來繪製消息發生的次數。我的消息的 實施例: 1) "JvmStatsLoggerService - gc count: 58" 2) "JvmStatsLoggerService - g

    4熱度

    1回答

    我希望我的logstash過濾器配置顯示Soap消息和異常堆棧跟蹤。我能夠讓他們單獨工作,但不能在一起工作。 任何人都可以讓我知道,如果這是可行的或我在做下面的代碼中的任何錯誤? filter { ## 1. To show stacktrace multiline { type => "myLog" pattern => "(^.+Exception

    5熱度

    1回答

    通過使用GROK filter,我們可以向Logstash添加新字段。 但是,在這裏,我想知道如何設置該特定領域的分析儀。 對於例如:,我有一個新的ID字段,它有一個像a_b這樣的字段,但Elasticsearch發運的正常分析器會將其分解爲a和b。正因爲如此,我無法有效地在特定字段上應用術語功能並使其有用。 在這裏爲ID字段,我想應用我自己的自定義分析器,它不標記值,但應用小寫過濾器。 這是如何

    2熱度

    1回答

    我在解析下面的json文件時遇到了問題。我想解析這個使用logstash/python。 { "took" : 153, "timed_out" : false, "_shards" : { "total" : 5, "successful" : 5, "failed" : 0 }, "hits" : { "

    1熱度

    1回答

    我的日誌事件是這樣的: WARN 12 Dec 00:11:12 slow:[Task[Task-Name 20 ms],Task[Task-Name 30 ms]], time = 1234 這意味着它可以被嵌套有些慢任務記錄。 是否有機會通過Grok過濾器創建任意數量的字段(=記錄每個事件時不同的任務數量)? 或者我應該寫我自己的過濾器,至少我如何訪問這些字段?

    1熱度

    3回答

    我們可以使用Logstash和Kibana進行大數據分析嗎? 我將使用Hadoop來存儲我的數據。在嘗試任何事情之前,我想知道是否有人已經嘗試過。

    5熱度

    1回答

    我想代理從nginx到kibana(logstash)的請求。我可以在端口9292上訪問kibana儀表板 - 我可以確認服務正在偵聽端口9292.我可以成功從nginx代理到其他服務,但kibana(端口9292)的代理指令不起作用 - 我可以代理到9200用於elasticsearch。任何想法如何進一步解決這一問題將不勝感激。 更新: 我已經嘗試更改上游中的服務器設置以指向0.0.0.0以及

    4熱度

    1回答

    管理獲得logstash(1.3.1)發送數據到elasticsearch(0.9.5)。 我logstash的conf文件設置爲 input { file { path => ["D:/apache-tomcat-7.0.5/logs/*.*"] } } output { stdout { } elasticsearch_http {