启动HDFS后,有NameNode、SecondaryNameNode,无DataNode。

进入日志:
进入目录/home/hadoop/app/hadoop-2.6.0-cdh5.15.1/logs
输入:cat /home/hadoop/app/hadoop-2.6.0-cdh5.15.1/logs/hadoop-hadoop-datanode-hadoop000.log
查看日志,找到的原因:
1、java.net.BindException: Port in use: localhost:0
2、Caused by: java.net.BindException: Cannot assign requested address

 

尝试过的方法一:(无效)
删除/home/hadoop/app下的tmp文件,再次执行初始化HDFS,再启动HDFS。

 

尝试过的方法二:(无效)

在目录下/home/hadoop/app/hadoop-2.6.0-cdh5.15.1/etc/hadoop
在hdfs-site.xml 中添加:

<property>
    <name>dfs.datanode.address</name>
    <value>0.0.0.0:50010</value>
</property>

再启动HDFS。

 

尝试过的方法三:(无效)

在dfs/name目录下找到一个current/VERSION文件,记录clusterID并复制

然后dfs/data目录下找到一个current/VERSION文件,将其中clustreID的值替换成刚刚复制的clusterID的值即可

问题出在:/home/hadoop/app/tmp/dfs/data里面是空的,没有current文件。

 

日志:

 

你好,我是有问必答小助手,非常抱歉,本次您提出的有问必答问题,技术专家团超时未为您做出解答

本次提问扣除的有问必答次数,将会以问答VIP体验卡(1次有问必答机会、商城购买实体图书享受95折优惠)的形式为您补发到账户。

​​​​因为有问必答VIP体验卡有效期仅有1天,您在需要使用的时候【私信】联系我,我会为您补发。

可参考:
https://blog.csdn.net/qq_35246620/article/details/88657826