您的位置:首页 > 运维架构

ubuntu hadoop安装以及配置

2013-06-04 21:08 405 查看
Hadoop的安装以及配置
一、linux下java环境的配置

1、  下载linux版本的jdk安装包,我用的就是jdk-6u43-linux-i586.bin(二进制文件)

执行Apt-get install  /opt/jdk-6u43-linux-i586.bin

将文件安装在/opt/路径下



2、  Jdk开发环境的配置

执行vim /etc/profile

将下面代码加入profile文本最后面

#set javaenvironment

export JAVA_HOME=/opt/jdk1.6.0_43

 

exportJRE_HOME=/opt/jdk1.6.0_43/jre

 

exportCLASSPATH=.:$JAVA_HOME/lib:$JRE_HOME/lib:$CLASSPATH

 

exportPATH=$JAVA_HOME/bin:$JRE_HOME/bin:$PATH

 

执行source /etc/profile 使文件生效

 

执行java –version  查看java的版本号,如果配置成功会有一下信息出来



二、ssh免钥匙登陆的配置

先看看伪分布的ssh免钥匙的登陆

三、hadoop的安装以及配置

1、  下载hadoop文件

现在稳定版本是hadoop1.1x版本,最好是稳定版的,因为支持是功能是最多的,hadoop最好下tar包,如图

 


2、  添加一个hadoop账户

执行useradd hadoop  这样就在/home 目录下新建了一个账户

 

3、  把下载的hadoop文件放到/home/hadoop 下面

 

进入/home/hadoop目录

执行 tar –xvf  hadoop-1.1.2-bin.tar.gz 对文件进行解压缩



4、  hadoop环境变量配置

(1)修改hadoop-env.sh文件

进入/home/hadoop/hadoop-1.1.2/conf

执行gedit hadoop-env.sh

将export  JAVA_HOME=/opt/jdk1.6.0_43  加入文件当中



执行source /home/hadoop/hadoop-1.1.2/conf/hadoop-env.sh  使文件生效

 

(2)修改hdfs-site.xml文件

进入/home/hadoop/hadoop-1.1.2/conf目录

执行gedit hdfs-site.xml

在文档中加入<property>

                 <name>dfs.replication</name>

                 <value>1</value>

           </property>



(3)修改core-site.xml文件

同上的方法修改<property>

                  <name>fs.default.name</name>

                  <value>hdfs://localhost:9000</value>

             </property>

(4)修改mapred-site.xml文件

同上的方法 <property>

                  <name>mapred.job.tracker</name>

                  <value>localhost:9001</value>

           </property>

5、  添加hadoop命令行到linux

执行gedit /etc/profile

添加export HADOOP_HOME=/home/hadoop-1.1.2/  hadoop安装目录

执行 source /etc/profile 使文件生效

6、  使hadoop 文件系统格式化

进入 /home/hadoop/ hadoop-1.1.2/bin

执行./hadoop  namenode –format 进行格式化

执行./hadoop start-all.sh 全面启动hdfs文件系统

7、  测试hadoop文件系统

执行jps看结果



使用web功能

 

localhost:50070hdfs 文件系统

localhost:50030hdfs mapreduce文件框架

 

四、测试文件传输功能

传输文件、删除文件。。。。。。。。。

上传文件





 hadoop常用命令 
Hdfs的命令格式

./hadoopfs –rmr   /tmp 

./hadoopfs –put /opt/java  hdfs://localhost:9000/

 
启动Hadoop
·        进入HADOOP_HOME目录。
·        执行sh bin/start-all.sh
关闭Hadoop
·        进入HADOOP_HOME目录。
·        执行sh bin/stop-all.sh
 
1、查看指定目录下内容
hadoop dfs –ls [文件目录]
eg: hadoop dfs –ls /user/wangkai.pt
2、打开某个已存在文件
hadoop dfs –cat [file_path]
eg:hadoop dfs -cat /user/wangkai.pt/data.txt
3、将本地文件存储至hadoop
hadoop fs –put [本地地址] [hadoop目录]
hadoop fs –put /home/t/file.txt /user/t   
(file.txt是文件名)
4、将本地文件夹存储至hadoop
hadoop fs –put [本地目录] [hadoop目录] 
hadoop fs –put /home/t/dir_name /user/t
(dir_name是文件夹名)
5、将hadoop上某个文件down至本地已有目录下
hadoop fs -get [文件目录] [本地目录]
hadoop fs –get /user/t/ok.txt /home/t
6、删除hadoop上指定文件
hadoop fs –rm [文件地址]
hadoop fs –rm /user/t/ok.txt
7、删除hadoop上指定文件夹(包含子目录等)
hadoop fs –rm [目录地址]
hadoop fs –rmr /user/t
8、在hadoop指定目录内创建新目录
hadoop fs –mkdir /user/t
9、在hadoop指定目录下新建一个空文件
使用touchz命令:
hadoop  fs  -touchz  /user/new.txt
10、将hadoop上某个文件重命名
使用mv命令:
hadoop  fs  –mv  /user/test.txt /user/ok.txt  (将test.txt重命名为ok.txt)
11、将hadoop指定目录下所有内容保存为一个文件,同时down至本地
hadoop dfs –getmerge /user /home/t
12、将正在运行的hadoop作业kill掉
hadoop job –kill  [job-id]
五、测试mapreduce功能

目的:将/home/hadoop/ hadoop-1.1.2/bin下面的全部*.sh文件放到hdfs://localhost:9000/input文件中,并且通过mapreduce计算他里面require单词出现的频率

执行./hadoop  fs –mkdir  /input 在hadoop系统根目录下建input文件夹

执行./hadoop   fs -put  *.sh   /input/



执行./hadoop jar hadoop-examples-1.1.2.jarwordcount  /input   /output计算require单词数



点击part—r00000查看结果

 

在电脑上面计算所有*.sh文件里面required出现的次数



执行 grep  *.sh   然后执行grep require *.sh |wc



结果是14个与mapreduce结果一样

 

 

 

 

 

 

 
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签:  Hadoop Ubuntu HDFS