2014-11-05 56 views
0

當我運行此命令:如何在使用MAPRFS運行`hadoop fs`時啓用附加日誌記錄?

hadoop fs -copyFromLocal /tmp/1GB.img 'maprfs://maprfs.example.com/tmp/1GB.img' 

我收到以下錯誤。

2014-11-05 01:21:08,7669 ERROR Client fs/client/fileclient/cc/writebuf.cc:154 Thread: 240 FlushWrite failed: File 1GB.img, error: Invalid argument(22), pfid 4484.66.266002, off 65536, fid 5189.87.131376 
14/11/05 01:21:08 ERROR fs.Inode: Write failed for file: /tmp/1GB.img, error: Invalid argument 
14/11/05 01:21:08 ERROR fs.Inode: Marking failure for: /tmp/1GB.img, error: Invalid argument 
14/11/05 01:21:08 ERROR fs.Inode: Throwing exception for: /tmp/1GB.img, error: Invalid argument 
14/11/05 01:21:08 ERROR fs.Inode: Flush failed for file: /tmp/1GB.img, error: Invalid argument 
14/11/05 01:21:08 ERROR fs.Inode: Marking failure for: /tmp/1GB.img, error: Invalid argument 
14/11/05 01:21:08 ERROR fs.Inode: Throwing exception for: /tmp/1GB.img, error: Invalid argument 
copyFromLocal: 4484.66.266002 /tmp/1GB.img (Invalid argument) 

任何人都可以建議如何啓用額外的詳細/調試日誌?

上述錯誤似乎來自MAPR hadoop類。在這些包中啓用更詳細的日誌記錄以及org.apache是​​很好的。*

我試着修改/opt/mapr/conf/logging.properties,但它似乎沒有幫助。

BTW,運行Hadoop的1.0.3和MAPR 3.1.1.26113.GA

感謝,

網絡

附: 這是在http://answers.mapr.com/questions/11374/write-to-maprfs-with-hadoop-cli-fails-inside-docker-while-running-on-a-data-node#

回答

0

一個fs.mapr.trace=debug屬性也可以直接使用該選項

hadoop mfs -Dfs.mapr.trace=DEBUG -ls maprfs://maprfs.example.com/tmp/1GB.img

0

找到了答案涉及到我的問題,的http://answers.mapr.com/answer_link/6181/

禮貌只需要在

/opt/mapr/hadoop/hadoop-0.20.2/conf/core-site.xml

<configuration> 
    <property> 
    <name>fs.mapr.trace</name> 
    <value>debug</value> 
    </property> 
</configuration> 
+0

FYI鏈接已損壞。我在這裏找到它:https://community.mapr.com/docs/DOC-1217 – Wheezil 2016-04-11 15:17:24