Hadoop和Spark集群中某台工作机崩溃后如何重启?
2016-11-11 16:53
253 查看
Hadoop和Spark集群中某台工作机崩溃后如何重启?
工作机是hadoop集群的datanode,Spark集群的worker。
只需要在机器重启后,
一、连接hadoop集群
bin/hadoop-daemon.sh start datanode //启动数据节点
bin/hadoop-daemon.sh start tasktracker //启动任务管理器
此时再在master上使用 ./hadoop dfsadmin -report 是就会发现这些节点已经启动起来 。
二、连接spark集群
start-slave.sh spark://master:7077
ok了!
工作机是hadoop集群的datanode,Spark集群的worker。
只需要在机器重启后,
一、连接hadoop集群
bin/hadoop-daemon.sh start datanode //启动数据节点
bin/hadoop-daemon.sh start tasktracker //启动任务管理器
此时再在master上使用 ./hadoop dfsadmin -report 是就会发现这些节点已经启动起来 。
二、连接spark集群
start-slave.sh spark://master:7077
ok了!
相关文章推荐
- Spark应用如何访问带Kerberos认证的CDH Hadoop集群
- 如何在一个hadoop集群新增一些机器而不重启
- 如何在不重启或重新格式化hadoop集群的情况下删除集群节点
- 如何使用Spark的local模式远程读取Hadoop集群数据
- 如何使用Spark的local模式远程读取Hadoop集群数据
- 如何使用vagrant在虚拟机安装hadoop集群
- 如何使用vagrant在虚拟机安装hadoop集群
- 部署Hadoop集群前奏之ssh如何不输入密码在Master与Slave之间访问
- 线上hadoop集群重启jobtracker
- HADOOP写集群文件JVM崩溃
- hadoop 集群配置--增加减少新的机器不重启
- 如何在Hadoop集群运行JNI程序
- 如何在Hadoop集群运行JNI程序
- hadoop集群崩溃,因为tmp下/tmp/hadoop-hadoop/dfs/name文件误删除
- 如何监视一个进程,崩溃挂掉后自动重启
- 如何让你的作业在Hadoop集群中真正实现分布式运行
- 配置文件、虚拟机-如何使用vagrant在虚拟机安装hadoop集群-by小雨
- 部署Hadoop集群前奏之ssh如何不输入密码在Master与Slave之间访问
- hadoop集群崩溃恢复记录
- 如何在几分钟内部署Hadoop集群