您的位置:首页 > 运维架构

Hadoop和Spark集群中某台工作机崩溃后如何重启?

2016-11-11 16:53 253 查看
Hadoop和Spark集群中某台工作机崩溃后如何重启?

工作机是hadoop集群的datanode,Spark集群的worker。

只需要在机器重启后,
一、连接hadoop集群
bin/hadoop-daemon.sh start datanode //启动数据节点
bin/hadoop-daemon.sh start tasktracker //启动任务管理器
此时再在master上使用 ./hadoop dfsadmin -report 是就会发现这些节点已经启动起来 。

二、连接spark集群
start-slave.sh spark://master:7077

ok了!
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签:  hadoop spark