HADOOP datanode同时三节点故障下查询BLOCK块信息

有一个关于hadoop dfs高可用的问题:



场景:
现在有一个HADOOP集群,节点数假设100个,副本设定为3,在某个时刻同时三台主机宕机。



问题:
集群内数据量大的话,一定有1~多个block块的三个副本同时在这三台故障主机上:

  1. 如何查询出这1~多个BLOCK块的信息(如ID号等等)?,以及这个BLOCK块所属的文件名?

  2. 或者在哪里(主节点监控页面或者hadoop原生shell查询),直接能够查到哪些文件不可用了?

https://www.cnblogs.com/prayer21/p/4819789.html