您的位置:首页 > 大数据 > Hadoop

HDFS 启动与关闭

2016-05-04 16:35 344 查看
一.HDFS 启动与关闭

HDFS 和普通的硬盘上的文件系统不一样,是通过Java 虚拟机运行在整个集群当中的,所以当Hadoop 程序写好之后,需要启动HDFS 文件系统,才能运行。

HDFS 启动过程如下:

1)进入到NameNode 对应节点的Hadoop 安装目录下。

2)执行启动脚本:

bin/start-dfs.sh
这一脚本会启动NameNode,然后根据conf/slaves 中的记录逐个启动DataNode,最后根据conf/masters 中记录的Secondary NameNode 地址启动SecondaryNameNode。

HDFS 关闭过程如下:

运行以下关闭脚本:
bin/stop-dfs.sh

这一脚本的运行过程正好是bin/start-dfs.sh的逆过程,关闭Secondary NameNode,然后是每个DataNode,最后是NameNode 自身。
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: