logstash

    0熱度

    3回答

    當在未進入正確的選擇它不顯示重新進入或重複循環 int counterA = 0; while (counterA < 0) { if (conversionSelection.equalsIgnoreCase("binary")) counterA++; if (conversionSelection.equalsIgnoreCase("octal"))

    2熱度

    2回答

    我定義我自己的模板,通過logstash在那裏我有禁用動態映射使用的dynamic_mapping創建領域: { "my_index": { "order": 0, "template": "my_index", "settings": { "index": { "mapper": { "dynamic"

    -1熱度

    1回答

    我想從java應用程序發送數據到logstash。 發送到 「捲曲」 是好的,但它並沒有將其發送至 「Java的restTemplate」 「捲曲」 的例子:OK $ curl -XPOST -H "Content-Type: application/x-ndjson" "http://10.97.8.151:18080" --data-binary @data.txt 的data.txt {

    0熱度

    1回答

    我有一些舊的日誌文件(每天一個文件)。 log-2017.09.01.json log-2017.09.02.json etc json文件中沒有日期信息。 默認情況下,索引的時間戳是創建索引的日期。 我試圖爲這些日誌文件中的每一個創建索引,並且我希望每個日誌文件對應的索引的時間戳與文件名稱定義的時間戳相同。 即,我想要一個索引「log-2017.09.01」,其時間戳爲2017.09.01,另一

    2熱度

    2回答

    我有一個沒有連接的表與MySQL數據庫〜100百萬行。這些項目可以更新或刪除,也可以將新記錄定期保存到MySQL DB中。每一分鐘。我怎樣才能達到Elasticsearch更新索引 when data is updated/changed/deleted in MySQL DB? Actualizing數據是必須爲我保持最新與MySQL這是非常重要的。可能嗎?謝謝。 另外我試過解決方案schedu

    0熱度

    1回答

    我有XML <test-suite type="TestFixture" name="RegionalityFeature" description="Regionality" executed="True" result="Failure" success="False" time="64.162" asserts="3"> <properties> <property n

    0熱度

    1回答

    我使用Logstash 5.5來分析我的日誌。我有以下格式的日誌: time taken for doing transfer once for all files in seconds=23 transfer start time= 201708030959 transfer end time = 201708030959. 我正在使用KV插件從此文件中獲取鍵/值對。我想將收到的「時間」鍵的

    -3熱度

    1回答

    我是ELk新手,我無法找到(。)分隔的單詞,例如:javax.ejb.duplicatekeyexception 因此,當我只有搜索duplicatekeyexception。 kibana沒有顯示任何結果,請幫助我解決這個問題。我正在使用logstash 2.4,elasticsearch 5(當前版本),kibana 5(當前版本)

    0熱度

    1回答

    我在AWS RHEL服務器中安裝了elasticsearch。在運行elasticsearch的時候它正在低於懷疑。我嘗試了所有的解決方案,但沒有幫助。任何人都可以給我一個解決方案。 $ /usr/share/elasticsearch/bin/elasticsearch Error: Could not find or load main class org.elasticsearch.to

    1熱度

    1回答

    我已經配置logstash管道來報告彈性。我能夠讀取日誌文件。我的日誌文件中包含多行的消息,但每條線被報告爲一個消息elastic.Following是我logstash配置文件 LogConf文件: input { file { path => ["abc.log" ] start_position => "beginning" codec