公司A通过http请求访问公司B的hdfs上的文件数据

比如,公司A要获取公司B的hadoop集群的hdfs某个路径下的文件(不考虑安全认证什么的),但hdfs上存的数据都是以块存的,我可以获取到一个txt文件或者csv文件,但获取块的文件夹时却没办法获取数据,现在要将conf.set("fs.default","hdfs:127.0.01")这样的方式获取改为http请求,请问有案例吗,谢谢

img

img

运行结果及报错内容
我的解答思路和尝试过的方法
能通过代码获取到csv文件,但怎么获取到leiWriter文件夹呢并且是http请求,毕竟hdfs上这样的数据才是最普遍的,

顶一下

或者通过spark读取文件也行,但必须是http请求,而不是hdfs:127.0.0.1/path这种

你去看一下 WebHdfs 的相关内容吧,这个 api 是提供给非Java语言的通用接口。
通过api访问文件,和块没啥关系,你把 HDFS 想象成一块大硬盘就可以了,然后,通过api操纵文件的读写即可。
块是HDFS底层,在处理大文件时采用的一种数据处理方案,在应用层通过api访问系统时,底层的东西不必考虑在内。