您的位置:首页 > 大数据 > Hadoop

Hadoop安装感悟

2013-04-22 08:54 1261 查看
Hadoop开发指南

一:开发环境的搭建

1:环境准备:

若有Linux系统则直接跳到2。若无Linux则在虚拟机上虚拟一个Linux系统。我的开发环境是在Oracle Vm virtualBox上虚拟一个Ubuntu 12.04 Linux系统。首先安装JDK。在Ubuntu上安装jdk的命令请自己在网上搜索。安装好JDK后修改 sudo gedit /etc/profile文件配置环境变量JAVA_HONECLASSPATH PATH。需要注意的是这些环境变量必须正确配置否则关机后再次重启后会进不到可视化环境。安装eclipse4.2

2www.apache.org上下载Hadoop-1.1.0.tar.gz放到/home。解压Hadoop-1.1.0.tar.gz。然后修改 /etc/profile文件配置环境变量HADOOP_INSTALL。并把$HADOOP_INSTALL/bin添加到环境变量PATHL上。

3:打开终端输入命令hadoop version.。如果正确显示其版本号则配置正确。

4:安装ssh配置无密码登录。用命令sudo apt-get install ssh 安装ssh。安装成功后运行一下命令。

ssh-keygen –t tsa –P ‘’ –f ~/.ssh/id_rsa

cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys

用以下指令进行测试

ssh localhost

如果成功则无需输入密码

5:修改 $HADOOP_INSTALL/conf 下的hadoop-evn.sh 文件中的JAVA_HOME(指向自己本地的JAVA_HOME实际位置)。

6:修改core-site.xml。修改成如下

<configuation>

<property>

<name>fs.default.name</name>

<value>hdfs://localhost:9000</value>

</property>

</configuation>



修改hdfs-site.xml文件修改后的内容如下:

<configuation>

<property>

<name>dfs.replication</name>

<value>1</value>

</property>

</configuation>

修改mapred-site.xml文件修改后的内容如下:

<configuation>

<property>

<name>mapred.job.tracker</name>

<value>localhost:9001</value>

</property>

</configuation>

7: 在启动Hadoop服务之前先要格式化远程文件夹。用命令 hadoop namenode –format 然后运行 start-all.sh。服务启动后用命令jps测试结果为:

28505 Jps
28520 Jps
27193 DataNode
27318 SecondaryNameNode


或者类似即可。

8:用命令hadoop dfsadmin –report检查Hadoop服务是否可以通过eclipse连接。测试结果如下或类似。Configured Capacity: 555761446912 (517.59 GB)
Present Capacity: 59667283983 (55.57 GB)
DFS Remaining: 59667259392 (55.57 GB)
DFS Used: 24591 (24.01 KB)
DFS Used%: 0%
Under replicated blocks: 0
Blocks with corrupt replicas: 0
Missing blocks: 0

9:把hadoop-1.0.4-eclipse-plugin.jar插件放到eclips/plugins目录下的启动eclipse



打开 Windows----->Preferences可以看到如下图即可把Hadoop的安装目录放进去。



然后选择视图。进入







Map/Reduce Locations选项中选择New Hadoop location 弹出如下对话框。



配置Map/Reduce Locations。
在Window-->Show View中打开Map/Reduce Locations。
在Map/Reduce Locations中新建一个Hadoop Location。在这个View中,右键-->New Hadoop Location。在弹出的对话框中你需要配置Location name,如Hadoop,还有Map/Reduce Master和DFS Master。这里面的Host、Port分别为你在mapred-site.xml、core-site.xml中配置的地址及端口。如:

Map/Reduce Master

Localhost

9001

DFS Master

localhost
9000

配置完后退出。点击DFS Locations-->Hadoop如果能显示文件夹(2)说明配置正确,如果显示"拒绝连接",请检查你的配置。

新建项目。
File-->New-->Other-->Map/Reduce Project
项目名可以随便取,如WordCount。
复制 hadoop安装目录/src/example/org/apache/hadoop/example/WordCount.java到刚才新建的项目下面。

第四步:上传模拟数据文件夹。
为了运行程序,我们需要一个输入的文件夹,和输出的文件夹。
在本地新建word.txt

java c++ python c
java c++ javascript
helloworld hadoop
mapreduce java hadoop hbase

通过hadoop的命令在HDFS上创建/tmp/workcount目录,命令如下:bin/hadoop fs -mkdir /tmp/wordcount

通过copyFromLocal命令把本地的word.txt复制到HDFS上,命令如下:bin/hadoop fs -copyFromLocal /home/grid/word.txt /tmp/wordcount/word.txt

运行项目

1.在新建的项目Hadoop,点击WordCount.java,右键-->Run As-->Run Configurations
2.在弹出的Run Configurations对话框中,点Java Application,右键-->New,这时会新建一个application名为WordCount
3.配置运行参数,点Arguments,在Program arguments中输入“你要传给程序的输入文件夹和你要求程序将计算结果保存的文件夹”,如:

hdfs://centos1:9000/tmp/wordcount/word.txt hdfs://centos1:9000/tmp/wordcount/out

4、如果运行时报java.lang.OutOfMemoryError: Java heap space 配置VM arguments(在Program arguments下)

-Xms512m -Xmx1024m -XX:MaxPermSize=256m

点击Run,运行程序。

点击Run,运行程序,过段时间将运行完成,等运行结束后,查看运行结果,使用命令: bin/hadoop fs -ls /tmp/wordcount/out查看例子的输出结果,发现有两个文件夹和一个文件,使用命令查看part-r-00000文件, bin/hadoop fs -cat /tmp/wordcount/out/part-r-00000可以查看运行结果。

c 1
c++ 2
hadoop 2
hbase 1
helloworld 1
java 3
javascript 1
mapreduce 1
python 1



祝大家安装成功!进入大数据时代。
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签:  hadoop eclipse开发