2014-09-05 102 views
0

我配置了Logstash + logstash forwarder + kibana + Elasticsearch。它使用系統日誌,如Apache錯誤日誌& syslogs。現在,我有一個應用程序日誌,下面像,Logstash + logstash forwarder + kibana + Elasticsearch的自定義日誌

發件人:[email protected] CREATE_TIME:週四09月04日二時41分54秒2014 收件人:[email protected]

我怎麼能讀上面的日誌文件通過kibana。有人在這方面幫助我。你的幫助非常合適。

+0

你想閱讀了關於[grok filter](http://logstash.net/docs/1.4.2/filters/grok)並嘗試設置自定義模式來解析這些日誌。甚至有一個[grok sandbox](http://grokdebug.herokuapp.com/)來測試你的工作。 – rutter 2014-09-05 18:50:39

回答

0

您的logstash應該在分析您的日誌之前將其推送到elasticsearch中。

我認爲目前,你的logstash有一個輸入(lumberjack)和一個輸出(ES)。您應該添加至少一個grok過濾器(最流行)來提取新的語義字段。

然後你就可以根據這些新的領域:)

看到這裏創建可視化:logstash.net/docs/1.4.2/filters/grok