前段时间了解到hadoop中hdfs的储存方式,其中hadoop具有高可靠性,我想了解,当hdfs存储副本的时候,副本是否占用和原文件大小一致。也就是说如果一个块是128M那他的副本是否也是128M,那这么来说10t的文件要在hadoop中体现高可靠性至少需要20t的空间来存储10t的文件,是否可以理解成牺牲空间占用问题来换取高可靠性?这个是我疑惑的地方,希望可以得到大佬解惑。
确实是牺牲空间换取数据安全,而且不止20t,一份数据放在HDFS中存储的话应该是3份也就是30t可以参考这篇文章: