libhdfs 报错和解决方法
2016-01-18 18:23
381 查看
使用libhdfs时,一定要把jdk的clib路径添加进 /etc/ld.so.conf 中
/usr/local/lib/jdk1.8.0_45/jre/lib/amd64 /usr/local/lib/jdk1.8.0_45/jre/lib/amd64/server
否则报link错误.
另一个错误是运行时
loadFileSystems error: (unable to get stack trace for java.lang.NoClassDefFoundError exception: ExceptionUtils::getStackTrace error.)
这个是找不到相关jar包
解决方法是将hadoop里的jar添加进CLASSPATH环境变量里
/etc/profile
export HADOOP_HOME=/your/hadoop/hadoop-2.7.0/share export HADOOP_CLASSPATH=. for f in $HADOOP_HOME/hadoop/common/hadoop-*.jar; do HADOOP_CLASSPATH=${HADOOP_CLASSPATH}:$f done for f in $HADOOP_HOME/hadoop/common/lib/*.jar; do HADOOP_CLASSPATH=${HADOOP_CLASSPATH}:$f done for f in $HADOOP_HOME/hadoop/mapreduce/hadoop-*.jar; do HADOOP_CLASSPATH=${HADOOP_CLASSPATH}:$f done for f in $HADOOP_HOME/hadoop/hdfs/hadoop-*.jar; do HADOOP_CLASSPATH=${HADOOP_CLASSPATH}:$f done export CLASSPATH=.:$HADOOP_CLASSPATH:$CLASSPATH
相关文章推荐
- 使用QJM部署HDFS HA集群
- .gz文件上载到hdfs中
- MapReduce产生RCFile文件在HDFS,HIve将RCFile文件加载到hive的表中
- hbase安装(使用已经安装的HDFS和zookeeper)
- 将HDFS中的数据通过MapReduce产生HFile,然后将HFile导入到HBase具体案例分析
- HDFS的体系结构
- HDFS简介
- HBase正确安装配置单机和分布式【独立zk_quoram和data在hdfs上】
- HDFS实际应用场景之文件合并
- hdfs工具类加注释
- 解决因block的损坏而导致hdfs启动后进入安全模式
- 通过使用API来操作HDFS
- HDFS之Qurom Journal Manager(QJM)实现机制分析
- HDFS HA与QJM(Quorum Journal Manager)介绍及官网内容整理
- HDFS简介【全面讲解】
- HDFS+MapReduce+Hive+HBase十分钟快速入门
- 使用客户端的命令操作HDFS中的数据
- HDFS的介绍
- HIVE导出到HDFS没有分割符解决方案
- HDFS文件与本地文件操作