Hadoop Hdfs 配置 挂载hdfs文件系统(二)
2009-09-29 14:25
417 查看
Hadoop Hdfs 配置 挂载hdfs文件系统(二)
[align=left] [/align]环境
[align=left] OS Centos 5.3[/align][align=left] Jdk1.6[/align]
[align=left] Hadoop-2.20.1[/align]
[align=left] Fuse-2.8.1[/align]
[align=left] Apache-ant-1.7.1-bin.tar.gz[/align]
[align=left] Ant是一种基于Java的build工具。理论上来说,它有些类似于(Unix)C中的make[/align]
1、Fuse安装
tar zxvf fuse-2.8.1.tar.gzcd fuse2.8.1
./configure --prefix=/usr
make
make install
modprobe fuse
[align=left] [/align]
vi /etc/sysconfig/modules/my.modules
#!/bin/sh
modprobe fuse >/dev/null 2>&1
chmod +x /etc/sysconfig/modules/my.modules
[align=left] [/align]
2、Ant安装
wget http://www.meisei-u.ac.jp/mirror/apache/dist/ant/binaries/apache-ant-1.7.1-bin.tar.gz tar zxvf apache-ant-1.7.1-bin.tar.gmv apache-ant-1.7.1-bin.tar.g /usr/local/ant
[align=left] [/align]
3、环境变量设置
export JAVA_HOME=/usr/local/1dk1.6export HADOOP_HOME=/data/soft/hadoop-2.20.1
export OS_ARCH=i386
export OS_BIT=32 //如果系统是64位的,这里应该写64
export LD_LIBRARY_PATH=$JAVA_HOME/jre/lib/$OS_ARCH/server:${HADOOP_HOME}/build/c++/Linux-$OS_ARCH-$OS_BIT/lib:/usr/local/lib:/usr/lib
export ANT_HOME=/usr/local/ant
export PATH=$ANT_HOME/bin:$PATH
[align=left] [/align]
4、libhdfs 制作
cd $HADOOP_HOME/ant compile-c++-libhdfs -Dlibhdfs=1 -Dcompile.c++=1
ln -s c++/Linux-$OS_ARCH-$OS_BIT/lib build/libhdfs
[align=left] [/align]
5、fuse-dfs
cd $HADOOP_HOMEant compile-contrib -Dlibhdfs=1 -Dfusedfs=1
[align=left] [/align]
6、fuse配置
export JAVA_HOME=/usr/local/jdk1.6export HADOOP_HOME=/data/soft/hadoop-2.20.1
export HADOOP_CONF_DIR=/data/soft/hadoop-0.20.1/conf
export OS_ARCH=i386
export OS_BIT=32
//以上都是新增加的内容
if [ "$HADOOP_HOME" = "" ]; then
export HADOOP_HOME=/usr/local/share/hadoop
fi
export PATH=$HADOOP_HOME/contrib/fuse_dfs:$PATH
for f in ls $HADOOP_HOME/lib/*.jar $HADOOP_HOME/*.jar ; do
export CLASSPATH=$CLASSPATH:$f
done
if [ "$OS_ARCH" = "" ]; then
export OS_ARCH=amd64
fi
if [ "$JAVA_HOME" = "" ]; then
export JAVA_HOME=/usr/local/java
fi
if [ "$LD_LIBRARY_PATH" = "" ]; then
export LD_LIBRARY_PATH=$JAVA_HOME/jre/lib/$OS_ARCH/server:/usr/local/share/hdfs/libhdfs/:/usr/local/lib
fi
./fuse_dfs $@ //修改成以下内容
fuse_dfs $@ //这里要把前面的./去掉,要不然挂载hdfs文件系统会找不到fuse_dfs文件
[align=left] [/align]
7、设置文件权限
chmod +x /data/soft/hadoop-2.20.1/build/contrib/fuse-dfs/fuse_dfs_wrapper.shchmod +x /data/soft/hadoop-2.20.1/build/contrib/fuse-dfs/fuse_dfs
ln -s /data/soft/hadoop-2.20.1/build/contrib/fuse-dfs/fuse_dfs_wrapper.sh /usr/local/bin
ln -s /data/soft/hadoop-2.20.1/build/contrib/fuse-dfs/fuse_dfs /usr/local/bin/
mkdir /mnt/dfs
[align=left] [/align]
8、手动挂载hdfs文件系统
fuse_dfs_wrapper.sh dfs://192.168.1.11:54310 /mnt/dfs9、开机自动挂载hdfs文件系统
vi /etc/fstabfuse_dfs_wrapper.sh dfs://192.168.1.11:54310 /mnt/dfs fuse rw,auto 0 0
[align=left]参考:http://www.pginjp.org/modules/newbb/viewtopic.php?topic_id=229&forum=22&post_id=2041#forumpost2041[/align]
[align=left] [/align]本文出自 “网海过客” 博客,请务必保留此出处http://cqfish.blog.51cto.com/622299/208404
相关文章推荐
- Hadoop Hdfs 配置 挂载hdfs文件系统
- 在VMWare Workstation上使用RedHat Linux安装和配置Hadoop群集环境05_HDFS文件系统和Mapreduce框架的启动和运行
- 基于CDH5.4配置挂载HDFS文件系统
- fuse挂载hadoop2.0.0文件系统hdfs到本地(关于libhdfs和fuse-dfs的编译)
- 基于CDH5.4配置挂载HDFS文件系统
- 用FUSE挂载hadoop的hdfs文件系统
- fuse挂载hadoop2.0.0文件系统hdfs到本地
- 配置GP访问Hadoop的HDFS文件系统
- 挂载yaffs文件系统时参数的配置
- 基于Hadoop的云盘系统客户端技术难点之二 HDFS文件访问控制
- 基于Hadoop的云盘系统客户端技术难点之二 HDFS文件系统安全保障
- Hadoop中HDFS文件系统下的Shell操作
- 自动化挂载HDFS文件系统到本地目录
- hadoop HDFS文件系统的特征
- Hadoop教程(四)HDFS文件系统JavaAPI接口
- Hadoop HDFS文件系统通过java FileSystem 实现上传下载等
- 扩展hadoop hdfs,实现WebDav协议,将hdfs mount为linux本地文件系统
- 利用java查看hdfs/hadoop系统的状态与配置
- Hadoop 基本API 使用 -- 从HDFS文件系统 上读取文件
- hadoop日志分析系统二 第一部分 利用任务调度系统定期的把web系统所产生的日志文件导入到hdfs中