有时会碰到HDFS访问异常,此时可以重新初始化HDFS,但尽量不要过多次数初始化,而且初始化之前最好关闭Hadoop(stop-all.sh),不然会把之前文件都删除,还会造成从节点进程失效.
1.关闭hadoop集群 ./stop-all.sh
2.hadoop初始化之前,删除文件夹 rm -rf /usr/local/src/hadoop-1.2.1/tmp
3.(可选)删除hadoop日志 rm -rf /usr/local/src/hadoop-1.2.1/logs
4.hadoop初始化 ./hadoop namenode -format
5.启动hadoop集群 ./start-all.sh
6.访问HDFS ./hadoop fs -ls /
原创文章,作者:kepupublish,如若转载,请注明出处:https://blog.ytso.com/186270.html