0
我們正在使用廚師來管理我們的基礎設施,而我遇到的問題是Splunk TA(Kafka附加組件)只是拒絕承認我'已將kafka_credential.conf
文件放入插件的local
目錄中。如果我使用「Web UI」,它會正確生成一個條目,並顯示在附加配置中。Splunk Kafka附加組件不會讀取廚師管理的配置文件
[[email protected] local]# ls
app.conf inputs.conf kafka.conf kafka_credentials.conf
[[email protected] local]# grep -nr "" *.conf
app.conf:1:# MANAGED BY CHEF. PLEASE DO NOT MODIFY!
app.conf:2:[install]
app.conf:3:is_configured = 1
inputs.conf:1:# MANAGED BY CHEF. PLEASE DO NOT MODIFY!
inputs.conf:2:[kafka_mod]
inputs.conf:3:interval = 60
inputs.conf:4:start_by_shell = false
inputs.conf:5:
inputs.conf:6:[kafka_mod://my_app]
inputs.conf:7:kafka_cluster = default
inputs.conf:8:kafka_topic = log-my_app
inputs.conf:9:kafka_topic_group = my_app
inputs.conf:10:kafka_partition_offset = earliest
inputs.conf:11:index = main
kafka.conf:1:# MANAGED BY CHEF. PLEASE DO NOT MODIFY!
kafka.conf:2:[global_settings]
kafka.conf:3:log_level = INFO
kafka.conf:4:index = main
kafka.conf:5:use_kv_store = 0
kafka.conf:6:use_multiprocess_consumer = 1
kafka.conf:7:fetch_message_max_bytes = 1048576
kafka_credentials.conf:1:# MANAGED BY CHEF. PLEASE DO NOT MODIFY!
kafka_credentials.conf:2:[default]
kafka_credentials.conf:3:kafka_brokers = 10.14.2.164:9092,10.14.2.194:9092
kafka_credentials.conf:4:kafka_partition_offset = earliest
kafka_credentials.conf:5:index = main
在重新啓動Splunk的,在附加安裝,甚至連輸入下輸入部分創建的,但羣集本身就是「不可用」,並檢查日誌,當我看到這一點:
2017-08-09 01:40:25,442 INFO pid=29212 tid=MainThread file=kafka_mod.py:main:168 | Start Kafka
2017-08-09 01:40:30,508 INFO pid=29212 tid=MainThread file=kafka_config.py:_get_kafka_clusters:228 | Clusters: {}
2017-08-09 01:40:30,509 INFO pid=29212 tid=MainThread file=kafka_config.py:__init__:188 | No Kafka cluster are configured
看起來這個插件只是關於通過WebUI創建的集羣。這不會起作用,因爲我們希望能夠通過Chef完全配置這一點。儘管黑客攻擊REST API,並且在插件目錄中強制使用.py文件並強制插入字典,但我的選擇有哪些?
想知道是否有人遇到過這種情況。
絕對不是這樣,因爲我有和他們一樣的結果。 :/我正在進一步挖掘python代碼,它看起來像是內置splunk配置後端。因此,這實際上似乎是一個splunk問題,無視磁盤上的平面文件,以某種方式加載到Splunk REST Atom接口中。 –
聽起來很可信。 – coderanger