Hadoop Hdfs 配置 挂载hdfs文件系统
2012-05-16 15:54
435 查看
1、Fuse安装
wget http://nchc.dl.sourceforge.net/project/fuse/fuse-2.X/2.8.1/fuse-2.8.1.tar.gz tar zxvf fuse-2.8.1.tar.gzcd fuse2.8.1
./configure --prefix=/usr/
make
make install
modprobe fuse
[align=left] [/align]
vi /etc/sysconfig/modules/my.modules
#!/bin/sh
modprobe fuse >/dev/null 2>&1
chmod +x /etc/sysconfig/modules/my.modules
[align=left] [/align]
2、Ant安装
wget http://archive.apache.org/dist/ant/binaries/apache-ant-1.7.1-bin.tar.gztar zxvf apache-ant-1.7.1-bin.tar.g
mv apache-ant-1.7.1-bin.tar.g /usr/local/ant
[align=left] [/align]
3、环境变量设置
export JAVA_HOME=/usr/local/1dk1.6export HADOOP_HOME=/data/soft/hadoop-2.20.1
export OS_ARCH=amd64
export OS_BIT=32 //如果系统是64位的,这里应该写64
export LD_LIBRARY_PATH=$JAVA_HOME/jre/lib/$OS_ARCH/server:${HADOOP_HOME}/build/c++/Linux-$OS_ARCH-$OS_BIT/lib:/usr/local/lib:/usr/lib
export ANT_HOME=/usr/local/ant
export PATH=$ANT_HOME/bin:$PATH
[align=left] [/align]
4、libhdfs 制作
cd $HADOOP_HOME/ant compile-c++-libhdfs -Dlibhdfs=1 -Dcompile.c++=1
ln -s c++/Linux-$OS_ARCH-$OS_BIT/lib build/libhdfs
[align=left] [/align]
5、fuse-dfs
cd $HADOOP_HOMEant compile-contrib -Dlibhdfs=1 -Dfusedfs=1
[align=left] [/align]
6、fuse配置 /usr/local/bin/fuser_dfs_wrapper.sh
export JAVA_HOME=/usr/local/jdk1.6export HADOOP_HOME=/data/soft/hadoop-2.20.1
export HADOOP_CONF_DIR=/data/soft/hadoop-0.20.1/conf
export OS_ARCH=i386
export OS_BIT=32
//以上都是新增加的内容
if [ "$HADOOP_HOME" = "" ]; then
export HADOOP_HOME=/usr/local/share/hadoop
fi
export PATH=$HADOOP_HOME/contrib/fuse_dfs:$PATH
for f in ls $HADOOP_HOME/lib/*.jar $HADOOP_HOME/*.jar ; do
export CLASSPATH=$CLASSPATH:$f
done
if [ "$OS_ARCH" = "" ]; then
export OS_ARCH=amd64
fi
if [ "$JAVA_HOME" = "" ]; then
export JAVA_HOME=/usr/local/java
fi
if [ "$LD_LIBRARY_PATH" = "" ]; then
export LD_LIBRARY_PATH=$JAVA_HOME/jre/lib/$OS_ARCH/server:/usr/local/share/hdfs/libhdfs/:/usr/local/lib
fi
./fuse_dfs $@ //修改成以下内容
fuse_dfs $@ //这里要把前面的./去掉,要不然挂载hdfs文件系统会找不到fuse_dfs文件
[align=left] [/align]
7、设置文件权限
chmod +x /data/soft/hadoop-2.20.1/build/contrib/fuse-dfs/fuse_dfs_wrapper.shchmod +x /data/soft/hadoop-2.20.1/build/contrib/fuse-dfs/fuse_dfs
ln -s /data/soft/hadoop-2.20.1/build/contrib/fuse-dfs/fuse_dfs_wrapper.sh /usr/local/bin
ln -s /data/soft/hadoop-2.20.1/build/contrib/fuse-dfs/fuse_dfs /usr/local/bin/
mkdir /mnt/dfs
[align=left] [/align]
8、手动挂载hdfs文件系统
fuse_dfs_wrapper.sh dfs://192.168.1.11:9000 /mnt/dfs9、开机自动挂载hdfs文件系统
vi /etc/fstabfuse_dfs_wrapper.sh dfs://192.168.1.11:9000 /mnt/dfs fuse rw,auto 0 0
[align=left] [/align]
[align=left]10,/etc/fuse.conf 配置文件[/align]
user_allow_other
mount_max=100
[align=left] [/align]
[align=left]10,日志文件[/align]
tail -f /var/log/message
[align=left]参考:http://www.chinasa.net/archives/30.html[/align]
相关文章推荐
- Hadoop Hdfs 配置 挂载hdfs文件系统(二)
- 用FUSE挂载hadoop的hdfs文件系统
- 在VMWare Workstation上使用RedHat Linux安装和配置Hadoop群集环境05_HDFS文件系统和Mapreduce框架的启动和运行
- 基于CDH5.4配置挂载HDFS文件系统
- 基于CDH5.4配置挂载HDFS文件系统
- 配置GP访问Hadoop的HDFS文件系统
- fuse挂载hadoop2.0.0文件系统hdfs到本地
- fuse挂载hadoop2.0.0文件系统hdfs到本地(关于libhdfs和fuse-dfs的编译)
- 大数据【二】HDFS部署及文件读写(包含eclipse hadoop配置)
- Hadoop_HDFS_hdfs 文件系统操作指令
- 基于Hadoop的云盘系统客户端技术难点之二 HDFS文件访问控制
- 基于Hadoop的云盘系统客户端技术难点之二 HDFS文件系统安全保障
- hadoop系列二:HDFS文件系统的命令及JAVA客户端API
- hadoop中HDFS文件系统常用命令:
- hadoop(三)HDFS 文件系统
- flume中sink到hdfs,文件系统频繁产生文件和出现乱码,文件滚动配置不起作用?
- Hadoop实验:按规则读取本地文件写入HDFS文件系统
- Hadoop的Map和Reduce中能不能打开HDFS文件系统中的文件?
- hadoop三个配置文件的参数含义说明core-site.xml、hdfs-site.xml、mapred-site.xml
- linux网络文件系统挂载配置