您好,登录后才能下订单哦!
一、背景
目前namenode使用了ha的部署模式,但系统会经常出现ha的自动切换(namenode节点其实正常)。经过调研发现可能的原因如下:
HealthMonitor check本地namenode的rpc端口时超时,导致HealthMonitor认为namenode挂掉。
zk上的session
timeout,导致丢掉当前持有的active锁(temp节点),引起自动切换。
二、优化
下面的优化将针对1)和2)调整相应的超时参数,看是否起效。修改core-site.xml
<!-- HealthMonitor check namenode 的超时设置,默认50000ms,改为5mins --> <property> <name>ha.health-monitor.rpc-timeout.ms</name> <value>300000</value> </property> <!-- zk failover的session 超时设置,默认5000ms,改为3mins --> <property> <name>ha.zookeeper.session-timeout.ms</name> <value>180000</value> </property>
无,不需要重启hadoop,不会引起namenode切换
下面操作假设master1(active),master2(standby),只有按照该顺序操作,才能实现namenode不切换
1)登陆master2(standby),注释掉crontab中的restart-zkfc.sh任务,
执行
sbin/hadoop-daemon.sh stop zkfc
2)登陆master1(active),注释掉crotab中的restart-zkfc.sh任务,执行
sbin/hadoop-daemon.sh stop zkfc
3)备份master1和master2的core-site.xml文件,将上述配置项加到master1和master2的core-site.xml配置文件中
4)登陆master1(active),执行
sbin/hadoop-daemon.sh start zkfc
5)登陆master2(standby),执行
sbin/hadoop-daemon.sh start zkfc
6)check
hadoop集群状态
7)重要!!!
登录master1和master2,恢复crontab中的restart-zkfc.sh任务
8)完成
1)需要先注释掉机器上的crontab任务restart-zkfc.sh,否则该程序会自动拉起zkfc进程。导致namenode
active产生切换
2)任务完成后要恢复crontab中注释掉的restart-zkfc.sh任务
免责声明:本站发布的内容(图片、视频和文字)以原创、转载和分享为主,文章观点不代表本网站立场,如果涉及侵权请联系站长邮箱:is@yisu.com进行举报,并提供相关证据,一经查实,将立刻删除涉嫌侵权内容。