Hadoop 2.2.0启动脚本——sbin/start-yarn.sh
2014-03-22 19:21
417 查看
1. 执行libexec/yarn-config.sh
2. 启动ResourceManager
sbin/yarn-daemon.sh --config $YARN_CONF_DIR start resourcemanager
3. 启动NodeManager
sbin/yarn-daemons.sh --config $YARN_CONF_DIR start nodemanager
2. 启动ResourceManager
sbin/yarn-daemon.sh --config $YARN_CONF_DIR start resourcemanager
3. 启动NodeManager
sbin/yarn-daemons.sh --config $YARN_CONF_DIR start nodemanager
相关文章推荐
- Hadoop 2.2.0启动脚本——sbin/start-dfs.sh
- Hadoop 2.2.0启动脚本——etc/hadoop/hadoop-env.sh
- Hadoop 2.2.0启动脚本——libexec/hdfs-config.sh
- hadoop启动脚本分析:start-all.sh
- Hadoop-2.2.0启动./start-dfs.sh报错解决方法
- Spark 0.9.0启动脚本——sbin/start-master.sh
- Spark 0.9.0启动脚本——sbin/start-slaves.sh
- Spark 0.9.0启动脚本——sbin/start-slave.sh
- Spark 启动脚本——sbin/start-slaves.sh
- Hadoop 2.2.0启动脚本——libexec/hadoop-config.sh
- hadoop 启动脚本start-all.sh执行序列
- hadoop-0.20.2用start-all.sh启动时出现权限被拒绝的解决方法
- Dubbo2.3.2的部署启动脚本start.sh源码
- Hadoop 2.2.0版本./start-all.sh错误解决
- Hadoop: Start-all.sh 后发现JPS后Namenode没有启动
- hadoop2.2.0开机启动的后台服务脚本(请结合上一篇学习)
- hadoop start-all.sh 启动出错java.lang.ClassNotFoundException: start-all.sh
- Hadoop 2.0+YARN启动脚本分析与实战经验
- 集群搭建hadoop时,start-all.sh启动tasktracker会报错
- HADOOP1.0.3的start-dfs.sh系列脚本分析