linux中'no such file or directory'

img

在做spark相关实验的时候发现,“将本地文件“/usr/local/spark/README.md”上传到HDFS的“/user/hadoop”目录下”这一步骤出了错,看不懂问题出在哪里,请赐教

报错显示你是要上传到/user/yzh这个目录,Hadoop默认只有system、tmp、user这三个目录,你需要先创建目录然后再上传。
hadoop fs命令的使用参考如下链接:
https://blog.csdn.net/carefree2005/article/details/122081314
假期还在学习,点赞!

hdfs dfs -mkdir /usr/local/spark/

· hdfs dfs -put localfile /user/hadoop/hadoopfile

· hdfs dfs -put localfile1 localfile2 /user/hadoop/hadoopdir

· hdfs dfs -put localfile hdfs://nn.example.com/hadoop/hadoopfile

· hdfs dfs -put - hdfs://nn.example.com/hadoop/hadoopfile Reads the input from stdin.