logstash

    0熱度

    1回答

    我正在嘗試讀取文件並通過logstash解析並將輸出寫入另一個文件; input_file -> logstash -> output_file 我的解析器效果很好,我測試了一個大約1000行txt文件的示例文件。 問題是,一旦我用200MB到1GB的真實文件開始真正的測試,沒有任何反應。我沒有輸出,既沒有輸出,也沒有一個txt文件。 我懷疑的最後一件事是輸入文件的文件大小! 你可以給我一些關

    0熱度

    1回答

    這是我的配置文件: input{ redis{ data_type => "list" key => "aas-redis-logback" host => "my redis host" port => "6379" password => "my redis password" # threads => 5 }

    0熱度

    1回答

    我同步Oracle數據庫和ElasticSearch實例中的數據。 數據庫表"SYNC_TABLE"包含以下列:"ID"這是NUMBER,"LAST_MODIFICATION" - TIMESTAMP,"TEXT" - VARCHAR2。 我使用Logstash和jdbc-input-plugin來定期執行數據同步。 這是Logstash配置文件: input { jdbc {

    0熱度

    1回答

    我需要從我的應用程序負載平衡器中將日誌從Cloudwatch提取到Logstash。我有多個我想閱讀的。我想知道是否有人知道配置文件中filters字段背後的能力。 基本上我很好奇,如果我可以在filters字段中輸入多個LoadBalancer ID,或者我必須爲每個字段分別輸入input字段? input { cloudwatch { namespace => "AWS/

    2熱度

    1回答

    我有一個問題,通過logstash轉換值,我不能找到解決方案。它似乎與日期有關。 #Log line [2017-08-15 12:30:17] api.INFO: {"sessionId":"a216925---ff5992be7520924ff25992be75209c7","action":"processed","time":1502789417,"type":"bookingProce

    2熱度

    1回答

    我使用郵差測試LogStash,我試圖張貼請求localhost:5556/debug/warning有畸形或缺失體(對於具有{{{並沒有結束括號例如JSON),看看我有什麼錯誤我會得到的。令我驚訝的是,LogStash仍然給我200 OK。我想我會得到一個400壞請求或類似的。 如果它連接到的ES實例缺失(並且在此情況下/ health檢測報告連接失敗),它甚至會返回200 OK。 LogSta

    0熱度

    1回答

    我是Logstash和Avro的初學者。 我們正在建立一個以logstash作爲kafka隊列生產者的系統。但是,我們遇到了由Logstash產生的avro序列化事件不能被apache提供的avro-tools jar(版本1.8.2)解碼的問題。此外,我們注意到Logstash和avro-tools的序列化輸出不同。 我們有以下設置: logstash版本5.5 logstash Avro的編解

    1熱度

    1回答

    我正在一些集裝箱化服務上運行Filebeats以收集日誌並將它們發送到logstash(v5.3.1)容器,然後將它們上傳到aws S3。 我已啓用服務器端加密與默認公里加密日誌休息,它工作正常。但是,當我添加拒絕訪問的存儲桶策略(如果未啓用kms sse),logstash將失敗,並顯示以下錯誤: 錯誤logstash.outputs.s3 - 驗證存儲桶寫入權限時出錯! {:消息=>「拒絕訪問

    0熱度

    1回答

    在CentOS,當我開始Logstash用這個命令: sudo systemctl start logstash 它產生這一行/var/log/logstash/logstash-plain.log: [2017-08-15T13:52:14,119][INFO ][logstash.agent ] Successfully started Logstash API endpoint {:port

    1熱度

    1回答

    我用這個logstash配置過濾日誌: input { udp { port => 9600 codec => json } tcp { port => 9600 codec => json } } filter { mutate { add_field => [ "p