hadoop执行启动HDFS相关服务

img


1.是Java-Home找不到
2.主机验证密钥失败
不知道什么原因,环境变量也弄了,还是不行,期待帮忙解决一下,感谢!

  • 这个问题的回答你可以参考下: https://ask.csdn.net/questions/450262
  • 这篇博客你也可以参考下:【Hadoop】熟悉常用的HDFS操作(Java实现)
  • 除此之外, 这篇博客: 【若泽大数据003】Hadoop的HDFS伪分布式部署中的 4、配置JAVA_HOME 部分也许能够解决你的问题, 你可以仔细阅读以下内容或跳转源博客中阅读:
  • [ruoze@ruozedata001 hadoop]# pwd
    /home/ruoze/app/hadoop/etc/hadoop
    [ruoze@ruozedata001 hadoop]# vi hadoop-env.sh
    最后加上,然后保存退出
    JAVA_HOME=/usr/java/jdk1.8.0_121

  • 您还可以看一下 杨力老师的Hadoop大数据实战开发课程中的 HDFS接口小节, 巩固相关知识点
  • 以下回答由chatgpt基于相关博客总结生成:

    针对Java-Home找不到和主机验证密钥失败的问题,可以尝试以下解决方案:

    1. 首先确认自己设置的JAVA_HOME环境变量是否正确,通过终端命令"echo $JAVA_HOME"来查看是否与hadoop-env.sh文件中设置的一致。

    2. 针对主机验证密钥失败的问题,可以先尝试手动添加免密登录的密钥,通过在终端命令行执行"ssh-keygen"命令生成公钥和私钥文件,并将公钥添加到自己的authorized_keys文件中。

    3. 在执行启动HDFS相关服务时,可以通过添加环境变量HADOOP_SSH_OPTS="-o StrictHostKeyChecking=no" 来忽略主机验证密钥的错误提示。

    以下是示例代码:

    # 修改hadoop-env.sh中的JAVA_HOME
    export JAVA_HOME=/usr/java/jdk1.8.0_121
    
    # 生成公钥和私钥文件
    ssh-keygen -t rsa -P "" -f ~/.ssh/id_rsa
    
    # 将公钥添加到authorized_keys文件中
    cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
    
    # 启动HDFS相关服务
    HADOOP_SSH_OPTS="-o StrictHostKeyChecking=no" start-dfs.sh