Hadoop安装感悟
2013-04-22 08:54
1261 查看
Hadoop开发指南
一:开发环境的搭建
1:环境准备:
若有Linux系统则直接跳到2。若无Linux则在虚拟机上虚拟一个Linux系统。我的开发环境是在Oracle Vm virtualBox上虚拟一个Ubuntu 12.04 Linux系统。首先安装JDK。在Ubuntu上安装jdk的命令请自己在网上搜索。安装好JDK后修改 sudo gedit /etc/profile文件配置环境变量JAVA_HONE。CLASSPATH 、PATH。需要注意的是这些环境变量必须正确配置否则关机后再次重启后会进不到可视化环境。安装eclipse4.2
2:去www.apache.org上下载Hadoop-1.1.0.tar.gz放到/home。解压Hadoop-1.1.0.tar.gz。然后修改 /etc/profile文件配置环境变量HADOOP_INSTALL。并把$HADOOP_INSTALL/bin添加到环境变量PATHL上。
3:打开终端输入命令hadoop version.。如果正确显示其版本号则配置正确。
4:安装ssh配置无密码登录。用命令sudo apt-get install ssh 安装ssh。安装成功后运行一下命令。
ssh-keygen –t tsa –P ‘’ –f ~/.ssh/id_rsa
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
用以下指令进行测试
ssh localhost
如果成功则无需输入密码
5:修改 $HADOOP_INSTALL/conf 下的hadoop-evn.sh 文件中的JAVA_HOME(指向自己本地的JAVA_HOME实际位置)。
6:修改core-site.xml。修改成如下
<configuation>
<property>
<name>fs.default.name</name>
<value>hdfs://localhost:9000</value>
</property>
</configuation>
修改hdfs-site.xml文件修改后的内容如下:
<configuation>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuation>
修改mapred-site.xml文件修改后的内容如下:
<configuation>
<property>
<name>mapred.job.tracker</name>
<value>localhost:9001</value>
</property>
</configuation>
7: 在启动Hadoop服务之前先要格式化远程文件夹。用命令 hadoop namenode –format 然后运行 start-all.sh。服务启动后用命令jps测试结果为:
28505 Jps
28520 Jps
27193 DataNode
27318 SecondaryNameNode
或者类似即可。
8:用命令hadoop dfsadmin –report检查Hadoop服务是否可以通过eclipse连接。测试结果如下或类似。Configured Capacity: 555761446912 (517.59 GB)
Present Capacity: 59667283983 (55.57 GB)
DFS Remaining: 59667259392 (55.57 GB)
DFS Used: 24591 (24.01 KB)
DFS Used%: 0%
Under replicated blocks: 0
Blocks with corrupt replicas: 0
Missing blocks: 0
9:把hadoop-1.0.4-eclipse-plugin.jar插件放到eclips/plugins目录下的启动eclipse
打开 Windows----->Preferences可以看到如下图即可把Hadoop的安装目录放进去。
然后选择视图。进入
在Map/Reduce Locations选项中选择New Hadoop location 弹出如下对话框。
配置Map/Reduce Locations。
在Window-->Show View中打开Map/Reduce Locations。
在Map/Reduce Locations中新建一个Hadoop Location。在这个View中,右键-->New Hadoop Location。在弹出的对话框中你需要配置Location name,如Hadoop,还有Map/Reduce Master和DFS Master。这里面的Host、Port分别为你在mapred-site.xml、core-site.xml中配置的地址及端口。如:
Map/Reduce Master
Localhost
9001
DFS Master
localhost
9000
配置完后退出。点击DFS Locations-->Hadoop如果能显示文件夹(2)说明配置正确,如果显示"拒绝连接",请检查你的配置。
新建项目。
File-->New-->Other-->Map/Reduce Project
项目名可以随便取,如WordCount。
复制 hadoop安装目录/src/example/org/apache/hadoop/example/WordCount.java到刚才新建的项目下面。
第四步:上传模拟数据文件夹。
为了运行程序,我们需要一个输入的文件夹,和输出的文件夹。
在本地新建word.txt
java c++ python c
java c++ javascript
helloworld hadoop
mapreduce java hadoop hbase
通过hadoop的命令在HDFS上创建/tmp/workcount目录,命令如下:bin/hadoop fs -mkdir /tmp/wordcount
通过copyFromLocal命令把本地的word.txt复制到HDFS上,命令如下:bin/hadoop fs -copyFromLocal /home/grid/word.txt /tmp/wordcount/word.txt
运行项目
1.在新建的项目Hadoop,点击WordCount.java,右键-->Run As-->Run Configurations
2.在弹出的Run Configurations对话框中,点Java Application,右键-->New,这时会新建一个application名为WordCount
3.配置运行参数,点Arguments,在Program arguments中输入“你要传给程序的输入文件夹和你要求程序将计算结果保存的文件夹”,如:
hdfs://centos1:9000/tmp/wordcount/word.txt hdfs://centos1:9000/tmp/wordcount/out
4、如果运行时报java.lang.OutOfMemoryError: Java heap space 配置VM arguments(在Program arguments下)
-Xms512m -Xmx1024m -XX:MaxPermSize=256m
点击Run,运行程序。
点击Run,运行程序,过段时间将运行完成,等运行结束后,查看运行结果,使用命令: bin/hadoop fs -ls /tmp/wordcount/out查看例子的输出结果,发现有两个文件夹和一个文件,使用命令查看part-r-00000文件, bin/hadoop fs -cat /tmp/wordcount/out/part-r-00000可以查看运行结果。
c 1
c++ 2
hadoop 2
hbase 1
helloworld 1
java 3
javascript 1
mapreduce 1
python 1
祝大家安装成功!进入大数据时代。
一:开发环境的搭建
1:环境准备:
若有Linux系统则直接跳到2。若无Linux则在虚拟机上虚拟一个Linux系统。我的开发环境是在Oracle Vm virtualBox上虚拟一个Ubuntu 12.04 Linux系统。首先安装JDK。在Ubuntu上安装jdk的命令请自己在网上搜索。安装好JDK后修改 sudo gedit /etc/profile文件配置环境变量JAVA_HONE。CLASSPATH 、PATH。需要注意的是这些环境变量必须正确配置否则关机后再次重启后会进不到可视化环境。安装eclipse4.2
2:去www.apache.org上下载Hadoop-1.1.0.tar.gz放到/home。解压Hadoop-1.1.0.tar.gz。然后修改 /etc/profile文件配置环境变量HADOOP_INSTALL。并把$HADOOP_INSTALL/bin添加到环境变量PATHL上。
3:打开终端输入命令hadoop version.。如果正确显示其版本号则配置正确。
4:安装ssh配置无密码登录。用命令sudo apt-get install ssh 安装ssh。安装成功后运行一下命令。
ssh-keygen –t tsa –P ‘’ –f ~/.ssh/id_rsa
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
用以下指令进行测试
ssh localhost
如果成功则无需输入密码
5:修改 $HADOOP_INSTALL/conf 下的hadoop-evn.sh 文件中的JAVA_HOME(指向自己本地的JAVA_HOME实际位置)。
6:修改core-site.xml。修改成如下
<configuation>
<property>
<name>fs.default.name</name>
<value>hdfs://localhost:9000</value>
</property>
</configuation>
修改hdfs-site.xml文件修改后的内容如下:
<configuation>
<property>
<name>dfs.replication</name>
<value>1</value>
</property>
</configuation>
修改mapred-site.xml文件修改后的内容如下:
<configuation>
<property>
<name>mapred.job.tracker</name>
<value>localhost:9001</value>
</property>
</configuation>
7: 在启动Hadoop服务之前先要格式化远程文件夹。用命令 hadoop namenode –format 然后运行 start-all.sh。服务启动后用命令jps测试结果为:
28505 Jps
28520 Jps
27193 DataNode
27318 SecondaryNameNode
或者类似即可。
8:用命令hadoop dfsadmin –report检查Hadoop服务是否可以通过eclipse连接。测试结果如下或类似。Configured Capacity: 555761446912 (517.59 GB)
Present Capacity: 59667283983 (55.57 GB)
DFS Remaining: 59667259392 (55.57 GB)
DFS Used: 24591 (24.01 KB)
DFS Used%: 0%
Under replicated blocks: 0
Blocks with corrupt replicas: 0
Missing blocks: 0
9:把hadoop-1.0.4-eclipse-plugin.jar插件放到eclips/plugins目录下的启动eclipse
打开 Windows----->Preferences可以看到如下图即可把Hadoop的安装目录放进去。
然后选择视图。进入
在Map/Reduce Locations选项中选择New Hadoop location 弹出如下对话框。
配置Map/Reduce Locations。
在Window-->Show View中打开Map/Reduce Locations。
在Map/Reduce Locations中新建一个Hadoop Location。在这个View中,右键-->New Hadoop Location。在弹出的对话框中你需要配置Location name,如Hadoop,还有Map/Reduce Master和DFS Master。这里面的Host、Port分别为你在mapred-site.xml、core-site.xml中配置的地址及端口。如:
Map/Reduce Master
Localhost
9001
DFS Master
localhost
9000
配置完后退出。点击DFS Locations-->Hadoop如果能显示文件夹(2)说明配置正确,如果显示"拒绝连接",请检查你的配置。
新建项目。
File-->New-->Other-->Map/Reduce Project
项目名可以随便取,如WordCount。
复制 hadoop安装目录/src/example/org/apache/hadoop/example/WordCount.java到刚才新建的项目下面。
第四步:上传模拟数据文件夹。
为了运行程序,我们需要一个输入的文件夹,和输出的文件夹。
在本地新建word.txt
java c++ python c
java c++ javascript
helloworld hadoop
mapreduce java hadoop hbase
通过hadoop的命令在HDFS上创建/tmp/workcount目录,命令如下:bin/hadoop fs -mkdir /tmp/wordcount
通过copyFromLocal命令把本地的word.txt复制到HDFS上,命令如下:bin/hadoop fs -copyFromLocal /home/grid/word.txt /tmp/wordcount/word.txt
运行项目
1.在新建的项目Hadoop,点击WordCount.java,右键-->Run As-->Run Configurations
2.在弹出的Run Configurations对话框中,点Java Application,右键-->New,这时会新建一个application名为WordCount
3.配置运行参数,点Arguments,在Program arguments中输入“你要传给程序的输入文件夹和你要求程序将计算结果保存的文件夹”,如:
hdfs://centos1:9000/tmp/wordcount/word.txt hdfs://centos1:9000/tmp/wordcount/out
4、如果运行时报java.lang.OutOfMemoryError: Java heap space 配置VM arguments(在Program arguments下)
-Xms512m -Xmx1024m -XX:MaxPermSize=256m
点击Run,运行程序。
点击Run,运行程序,过段时间将运行完成,等运行结束后,查看运行结果,使用命令: bin/hadoop fs -ls /tmp/wordcount/out查看例子的输出结果,发现有两个文件夹和一个文件,使用命令查看part-r-00000文件, bin/hadoop fs -cat /tmp/wordcount/out/part-r-00000可以查看运行结果。
c 1
c++ 2
hadoop 2
hbase 1
helloworld 1
java 3
javascript 1
mapreduce 1
python 1
祝大家安装成功!进入大数据时代。
相关文章推荐
- 安装hadoop感悟
- Win7下面安装hadoop2.x插件及Win7/Linux运行MapReduce程序
- 本地搭建Hadoop伪分布式环境之一:虚拟机的安装
- Hadoop平台的安装与配置
- hadoop集群安装
- hadoop基础------虚拟机(二)---虚拟机安装以及安装linux系统
- hadoop安装
- Linux中基于hadoop安装hive(CentOS7+hadoop2.8.0+hive2.1.1)
- Ubuntu12.04安装伪分布式hadoop1.1.2
- Ubuntu13.04安装Hadoop集群环境
- C# Hadoop学习笔记(一)—环境安装
- Hadoop安装 1.0(简版)
- Hadoop-HBase安装和配置
- Hadoop平台搭建使用系列教程(6)- JDK的安装
- 在hadoop上安装hypertable
- hadoop安装部署
- hadoop配置文件详解、安装及相关操作
- 在hadoop2.2上安装hbase 集成zookeeper
- centos hadoop环境安装
- 在Linux上安装Hadoop