HDFS中磁盘和数据节点大小的示例分析

发布时间:2021-12-09 09:43:51 作者:小新
来源:亿速云 阅读:183

小编给大家分享一下HDFS中磁盘和数据节点大小的示例分析,相信大部分人都还不怎么了解,因此分享这篇文章给大家参考一下,希望大家阅读完这篇文章后大有收获,下面让我们一起去了解一下吧!



 
大容量对HDFS集群的影响

减少IO带宽
Hadoop集群依靠大规模的并行IO容量来支持数千个并发任务。假定一个大小为96TB的数据节点,让我们考虑两个磁盘大小– 8TB和16TB。一个具有8TB磁盘的数据节点将具有12个此类磁盘,而一个具有16TB磁盘的数据节点将具有6个磁盘。我们可以假设每个磁盘的平均读/写吞吐量为100MB / sec,主轴速度为7200 RPM。下表总结了每种配置的带宽和IOPS。

8TB      ⋅      12 = 96TB    
16TB      ⋅      6 = 96TB    
读/写吞吐量
1200 MB /秒
600 MB /秒
随机IOPS
2880
1440
Bit-rot检测需要更长的时间
每个数据节点在每个卷上运行一个卷扫描器,该扫描器扫描块中的bit-rot。默认扫描周期为3周,因此在3周内会检测到由于bit-rot而丢失的副本。由于卷扫描器与应用程序竞争磁盘资源,因此限制其磁盘带宽非常重要。配置dfs.block.scanner.volume.bytes.per.second 定义了卷扫描器每秒可扫描的字节数,默认为1MB /秒。给定的配置带宽为5MB /秒。
扫描12TB所需时间= 12TB / 5MBps  〜28天。
进一步增加磁盘大小将增加检测bit-rot所花费的时间。 
重量级块报告
较大的卷大小意味着卷的块报告中有大量块。这会影响集群性能,因为它会增加数据节点中的块报告生成时间,RPC有效负载和名称节点中的块报告处理时间。
下图表示由数据节点发送的块报告的生成、网络往返时间和处理时间。数据节点只有一个卷,并且通过增加该卷的块数来收集统计信息。所有这些指标随着磁盘中块数量的增加而增加。
HDFS中磁盘和数据节点大小的示例分析

 
高密度存储节点的影响

故障恢复需要更多时间
每当存储节点发生故障时,必须将存储在该节点上的块复制到集群中的其他节点上,以恢复数据冗余。恢复时间的大小与数据节点的大小成线性关系,而与集群中的节点数成反比。可以使用以下公式将所有其他因素考虑为恒定的恢复时间。
恢复时间=(c  ⋅ s)/n
其中c是常数,s是每个节点的已用容量,n是集群中存储节点的数量。
对于给定的集群容量,  如果节点容量增加一倍,则恢复时间将增加4倍。假设集群平衡,则如果节点数减半,则每个节点的使用率都会加倍。
恢复时间=  (c    ⋅   2s) / (n/2) = (4    ⋅   c    ⋅   s)/n
变量s和n在其他存储解决方案中也具有相似的意义。因此,高密度的数据节点将对任何集群中的恢复时间产生类似的影响。
对Datanode停用的影响
在计划中的某个节点退役期间,其所有块都将重新复制到其他节点。高密度节点对数据节点停用时间的影响类似于其对故障数据节点恢复时间的影响。因此,对于给定的集群容量,如果数据节点的容量增加一倍,则退役时间将增加4倍。
HDFS-14854 实现了一些改进,这些改进将提高节点退役的性能。这些改进将在CDP的将来版本中提供。

以上是“HDFS中磁盘和数据节点大小的示例分析”这篇文章的所有内容,感谢各位的阅读!相信大家都有了一定的了解,希望分享的内容对大家有所帮助,如果还想学习更多知识,欢迎关注亿速云行业资讯频道!

推荐阅读:
  1. hadoop/hdfs的示例分析
  2. Linux中磁盘和磁盘分区的示例分析

免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。

hdfs

上一篇:hdfs文件操作操作的示例分析

下一篇:如何进行react Hook的原理分析

相关阅读

您好,登录后才能下订单哦!

密码登录
登录注册
其他方式登录
点击 登录注册 即表示同意《亿速云用户服务条款》