您的位置:首页 > 编程语言 > Python开发

python通过pyhdfs连接hdfs的安装配置

2016-05-21 21:05 519 查看
最近由于程序的需要,使用python操作hdfs的内容。查找发现可以通过pydhfs操作hdfs,但是网上的教程多数比较老。

本着被坑了很久,希望大家早点解决问题的态度,记录下本菜鸟安装的过程。

可以按照下面帖子的方法安装pyhdfs
http://blog.csdn.net/w894607785/article/details/50205857
将所有的.jar放入lib库中,然后可以修改setup.py中的

pyhdfs = Extension('pyhdfs',

sources = ['src/pyhdfs.c'],

include_dirs = ['/usr/lib/jvm/jdk1.8.0_73/includes'],

libraries = ['hdfs'],

library_dirs = ['lib'],

runtime_library_dirs = ['/usr/local/lib/pyhdfs', '/usr/lib/jvm/jdk1.8.0_73/jre/lib/amd64/server'],

)

修改include_dirs和runtime_dirs为机器上的jdk安装路径,然后运行setup.py

完成后可以在python shell中尝试导入import pyhdfs

当出现无法找到模块错误时,检查setup中的路径是否正确

导入成功后可以输入

pyhdfs.connect('127.0.0.1',9000)尝试连接hdfs

如果出现

unable to get stack trace for java.lang.NoClassDefFoundError exception: ExceptionUtils::getStackTrace error.)

解决方法如下:

可以在程序前添加绿色部分:

import os

import pyhdfs

hadoop_path = '/usr/local/hadoop/share/hadoop/'

comm_line = 'find ' + hadoop_path + ' -name *.jar'

classpath_str = os.popen(comm_line).read()

if classpath_str.find('command not found') != -1:

#把错误写道日志中

error_log.config_log().error(classpath_str)

else:

classpath_list = classpath_str.strip().split()

classpath_str = ''

for path in classpath_list:

classpath_str = classpath_str + ':' + path

CLASSPATH = os.environ["CLASSPATH"]

os.environ['CLASSPATH'] = CLASSPATH + classpath_str

a = pyhdfs.connect('127.0.0.1',9000)

pyhdfs.get(a, "/test/1", "/home/hadoop/test_hdfs")

测试文件获取成功!
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: