- 在各个JournalNode节点上,输入以下命令启动journalnode服务
sbin/hadoop-daemon.sh start journalnode
- 在[nn1]上,对其进行格式化,并启动
bin/hdfs namenode -format
sbin/hadoop-daemon.sh start namenode
- 在[nn2]上,同步nn1的元数据信息
bin/hdfs namenode -bootstrapStandby
- 启动[nn2]
sbin/hadoop-daemon.sh start namenode
- 查看web页面显示,如图3-21,3-22所示

图3-21 hadoop102(standby)

图3-22 hadoop103(standby)
- 在[nn1]上,启动所有datanode
sbin/hadoop-daemons.sh start datanode
- 将[nn1]切换为Active
bin/hdfs haadmin -transitionToActive nn1
- 查看是否Active
bin/hdfs haadmin -getServiceState nn1
想要了解跟多关于大数据培训课程内容欢迎关注尚硅谷大数据培训,尚硅谷除了这些技术文章外还有免费的高质量大数据培训课程视频供广大学员下载学习
上一篇: 前端培训之为什么2个相邻div的margin只有1个生效
下一篇: 大数据培训之配置HDFS-HA自动故障转移

