Hadoop HDFS 添加节点
2015-06-04 00:00
120 查看
1 在新结点上安装Hadoop,从集群中已存在的节点上复制配置文件
2 为新节点与集群中已有节点配置免密码SSH登录
3 添加新节点的IP 到Master的 conf/slaves 中
4 在新节点上运行: bin/hadoop-deamon.sh start datanode 启动数据节点,日志查看$HADOOP_HOME/logs/hadoop-*-datanode-*.log
5 在新节点上运行: bin/hadoop-deamon.sh start tasktracker 启动task,日志查看$HADOOP_HOME/logs/hadoop-*-tasktracker-*.log
6 在master 上运行 bin/start-balancer.sh –threshold 15
2 为新节点与集群中已有节点配置免密码SSH登录
3 添加新节点的IP 到Master的 conf/slaves 中
4 在新节点上运行: bin/hadoop-deamon.sh start datanode 启动数据节点,日志查看$HADOOP_HOME/logs/hadoop-*-datanode-*.log
5 在新节点上运行: bin/hadoop-deamon.sh start tasktracker 启动task,日志查看$HADOOP_HOME/logs/hadoop-*-tasktracker-*.log
6 在master 上运行 bin/start-balancer.sh –threshold 15
相关文章推荐
- 详解HDFS Short Circuit Local Reads
- Hadoop_2.1.0 MapReduce序列图
- 使用Hadoop搭建现代电信企业架构
- 单机版搭建Hadoop环境图文教程详解
- hadoop常见错误以及处理方法详解
- hadoop 单机安装配置教程
- hadoop的hdfs文件操作实现上传文件到hdfs
- hadoop实现grep示例分享
- Apache Hadoop版本详解
- linux下搭建hadoop环境步骤分享
- java连接hdfs ha和调用mapreduce jar示例
- java实现将ftp和http的文件直接传送到hdfs
- hadoop client与datanode的通信协议分析
- hadoop中一些常用的命令介绍
- Hadoop单机版和全分布式(集群)安装
- 用PHP和Shell写Hadoop的MapReduce程序
- hadoop map-reduce中的文件并发操作
- Hadoop1.2中配置伪分布式的实例
- java结合HADOOP集群文件上传下载