2015-05-11 57 views
2

flume如何識別活動的namenode,以便將數據寫入HDFS?如果沒有高可用性Hadoop,我們將在flume.conf中配置namenode ip,以便將數據輕鬆導向HDFS。而在我們的案例中,Flume應該識別活動和備用名稱節點,從而將數據導向活動節點。如何使用Apache FLUME將數據寫入HA Hadoop QJM?

回答

1

AFAIK這是不可能的直接的方式。 HDFS sink配置只有一個Namenode的空間。不過,我認爲你可以配置兩個HDFS接收器(和兩個通道),每個接收器指向一個Namenode。由於默認Replicating Channel Selector,來源將在兩個頻道中放置每個事件的副本。因此,每個匯將嘗試自行堅持數據;指向備用Namenode的指針不會持續存在,直到活動指針下降並且備用數據庫變爲活動狀態。

HTH!

0

這對我的作品(Hadoop的2.7.1,1.6.0水槽): 將Hadoop的* -site.xml配置文件到你的classpath水槽

不知道這其中的作品,我放在覈心-site,hdfs-site,yarn-site,mapred-site),但集羣名稱的設置位於core-site.xml中