linux下hadoop-1.0.4源码部署及编译
2013-10-22 23:05
363 查看
1、下载hadoop-1.0.4.tar.gz包,我解压到了/usr/local/hadoop-1.0.4
Hadoop官方也提供了SVN方式的源代码下载。部署这个也可以,地址为svn地址:http://svn.apache.org/repos/asf/hadoop/common/tags/
release-*.*.*/ 需要安装svn。
2、Eclipse中创建Project, File->new->Project->Java Project,选择项目的位置为Hadoop的根目录hadoop-1.0.4,单击Finish按钮,就完成了Eclipse项目的创建
注意:Project根会出现一个!,是hadoop中的ANT_HOME/lib/ant.jar没有配置,所以我们需要配置系统的ANT_HOME的变量,让Eclipse能够找到编译代码需要的Ant库,选中项目,然后打开Eclipse的Project—>Properties->Java Build Path, 在Libraries页编辑出错的项,ANT_HOME/lib/ant.jar, 创建变量ANT_HOME(在接下来第一个对话框里单击‘Variable’,在第二个对话框里单击"New"按钮),其值为Ant的安装目录。
3、配置ant后发现,如下两个红叉
A:src/core上仍然有红叉 是eclipse无法编译的原因,所以需要
[user@fakeDistnode hadoop-1.0.4]$ ant eclipse
..........
BUILD FAILED
/usr/local/hadoop-1.0.4/build.xml:2391: /usr/local/hadoop-1.0.4/.eclipse.templates does not exist.
办法copy svn中下载的eclipse.templates到hadoop-1.0.4
再次ant eclipse
............
BUILD SUCCESSFUL
Total time: 14 seconds
B 如下错误
办法:import com.sun.tools.javac.code.Attribute.Array;删除即可
4、修改将Java Build Path,删除src,添加src/core, src/hdfs, src/mapred, src/tools几个目录。
至此,源码部署完成如下
如果需要重新生成jar、check后,直接在eclipse中 对build.xml ant build编译就ok了或者直接在命令行中ant build
~/.bashrc文件如下:
# .bashrc
# Source global definitions
if [ -f /etc/bashrc ]; then
. /etc/bashrc
fi
# User specific aliases and functions
export JAVA_HOME=/usr/java/jdk1.6.0_12
export classpath=.:$JAVA_HOME/lib/tools.jar:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/jre/lib/rt.jar:$CLASSPATH
export PATH=$JAVA_HOME/bin:/opt/jad:$PATH
#export HADOOP_HOME=/usr/local/hadoop-1.0.4
#export HIVE_HOME=$HADOOP_HOME/hive-0.9.0
#export HIVE_CONF_DIR=$HIVE_HOME/conf
#export PATH=$HADOOP_HOME/bin:$HIVE_HOME/bin:$HIVE_CONF_DIR:$PATH
export ANT_HOME=/usr/local/apache-ant-1.8.4
export MAVEN_HOME=/usr/local/apache-maven-3.0.5
export PATH=$PATH:$ANT_HOME/bin:$MAVEN_HOME/bin
#export MAHOUT_HOME=/usr/local/trunk
#export MAHOUT_CONF_DIR=$HAHOUT_HOME/conf
#export PATH=$PATH:$$MAHOUT_HOME/bin
Hadoop官方也提供了SVN方式的源代码下载。部署这个也可以,地址为svn地址:http://svn.apache.org/repos/asf/hadoop/common/tags/
release-*.*.*/ 需要安装svn。
2、Eclipse中创建Project, File->new->Project->Java Project,选择项目的位置为Hadoop的根目录hadoop-1.0.4,单击Finish按钮,就完成了Eclipse项目的创建
注意:Project根会出现一个!,是hadoop中的ANT_HOME/lib/ant.jar没有配置,所以我们需要配置系统的ANT_HOME的变量,让Eclipse能够找到编译代码需要的Ant库,选中项目,然后打开Eclipse的Project—>Properties->Java Build Path, 在Libraries页编辑出错的项,ANT_HOME/lib/ant.jar, 创建变量ANT_HOME(在接下来第一个对话框里单击‘Variable’,在第二个对话框里单击"New"按钮),其值为Ant的安装目录。
3、配置ant后发现,如下两个红叉
A:src/core上仍然有红叉 是eclipse无法编译的原因,所以需要
[user@fakeDistnode hadoop-1.0.4]$ ant eclipse
..........
BUILD FAILED
/usr/local/hadoop-1.0.4/build.xml:2391: /usr/local/hadoop-1.0.4/.eclipse.templates does not exist.
办法copy svn中下载的eclipse.templates到hadoop-1.0.4
再次ant eclipse
............
BUILD SUCCESSFUL
Total time: 14 seconds
B 如下错误
办法:import com.sun.tools.javac.code.Attribute.Array;删除即可
4、修改将Java Build Path,删除src,添加src/core, src/hdfs, src/mapred, src/tools几个目录。
至此,源码部署完成如下
如果需要重新生成jar、check后,直接在eclipse中 对build.xml ant build编译就ok了或者直接在命令行中ant build
~/.bashrc文件如下:
# .bashrc
# Source global definitions
if [ -f /etc/bashrc ]; then
. /etc/bashrc
fi
# User specific aliases and functions
export JAVA_HOME=/usr/java/jdk1.6.0_12
export classpath=.:$JAVA_HOME/lib/tools.jar:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/jre/lib/rt.jar:$CLASSPATH
export PATH=$JAVA_HOME/bin:/opt/jad:$PATH
#export HADOOP_HOME=/usr/local/hadoop-1.0.4
#export HIVE_HOME=$HADOOP_HOME/hive-0.9.0
#export HIVE_CONF_DIR=$HIVE_HOME/conf
#export PATH=$HADOOP_HOME/bin:$HIVE_HOME/bin:$HIVE_CONF_DIR:$PATH
export ANT_HOME=/usr/local/apache-ant-1.8.4
export MAVEN_HOME=/usr/local/apache-maven-3.0.5
export PATH=$PATH:$ANT_HOME/bin:$MAVEN_HOME/bin
#export MAHOUT_HOME=/usr/local/trunk
#export MAHOUT_CONF_DIR=$HAHOUT_HOME/conf
#export PATH=$PATH:$$MAHOUT_HOME/bin
相关文章推荐
- linux下Hadoop1.0.4_单机伪分布式部署和分布式部署
- Win7 64bit hadoop-2.6.0源码编译部署包
- (9)ubuntu下hadoop1.0.4源码编译
- Linux 64位编译hadoop源码
- Linux 环境下部署Hadoop 2.x,建议尝试64位系统下进行本地编译的安装方式
- 部署mariadb数据库到linux(源码编译安装)
- Hadoop2.7.2源码在64位Centos Linux下编译
- linux下部署的jdk为什么编译不了安卓源码
- linux下hadoop2.6.1源码64位的编译
- hadoop 2.x linux平台源码编译
- Linux下源码编译hadoop2.6.0
- spark的安装部署--10(源码编译安装hadoop+spark+解决64位系统本地库问题)
- linux 编译hadoop 源码
- linux环境下go1.8安装配置具体步骤(二进制部署和源码编译部署)
- linux下hadoop2.6.1源码64位的编译
- hadoop2.6.0汇总:新增功能最新编译 32位、64位安装、源码包、API下载及部署文档
- Hadoop 2.7.3 源码编译+单机及分布式部署
- centos6.2-64位快速部署hadoop-1.0.4.tar.gz 和 jdk-7u17-linux-x64.tar.gz
- Linux 环境下部署Hadoop 2.x,建议尝试64位系统下进行本地编译的安装方式
- Linux下编译hadoop2.5.1源码