您的位置:首页 > 大数据 > Hadoop

2018-07-10期 HadoopHDFS客户端API操作

2018-07-10 09:55 609 查看
1、新建JAVA工程



新建完成后如下图:



新建用户库,并添加外部jar文件



往hdfslib添加jar文件



由于HDFS的API只需要添加HDFS相关及hadoop通用jar包即可,包路径在E:\depslib\hadoop-2.4.1\share\hadoop下,这里添加HDFS jar包如下



同时还要添加hadoop通用jar包,路径为E:\depslib\hadoop-2.4.1\share\hadoop\common



为此,HDFS API开发相关JAR包已经添加完成,工程创建完成,下面可以进行HDFS相关API程序编写。

2、HDFS 客户端API代码测试

分享测试Demo代码如下:

package cn.qlq.hdfs;

import java.io.FileInputStream;

import java.io.FileNotFoundException;

import java.io.FileOutputStream;

import java.io.IOException;

import java.net.URI;

import java.net.URISyntaxException;

import org.apache.commons.compress.utils.IOUtils;

import org.apache.hadoop.conf.Configuration;

import org.apache.hadoop.fs.FSDataInputStream;

import org.apache.hadoop.fs.FSDataOutputStream;

import org.apache.hadoop.fs.FileStatus;

import org.apache.hadoop.fs.FileSystem;

import org.apache.hadoop.fs.LocatedFileStatus;

import org.apache.hadoop.fs.Path;

import org.apache.hadoop.fs.RemoteIterator;

import org.junit.Before;

import org.junit.Test;

public class HdfsUtil {

private FileSystem fs = null;

@Before

public void befor() throws IOException, InterruptedException, URISyntaxException{

//读取classpath下的xxx-site.xml 配置文件,并解析其内容,封装到conf对象中

Configuration conf = new Configuration();

//也可以在代码中对conf中的配置信息进行手动设置,会覆盖掉配置文件中的读取的值

conf.set("fs.defaultFS", "hdfs://localhost:9000/");

//根据配置信息,去获取一个具体文件系统的客户端操作实例对象

fs = FileSystem.get(new URI("hdfs://localhost:9000/"),conf,"root");

}

/**

上传文件,比较底层的写法

@throws Exception

*/

@Test

public void upload() throws Exception {

Path dst = new Path("hdfs://localhost:9000/aa/qingshu.txt");

FSDataOutputStream os = fs.create(dst);

FileInputStream is = new FileInputStream("/opt/download/haha.txt");

IOUtils.copy(is, os);

}

/**

上传文件,封装好的写法

@throws Exception

@throws IOException

*/

@Test

public void upload2() throws Exception, IOException{

fs.copyFromLocalFile(new Path("/opt/download/haha.txt"), new Path("hdfs://localhost:9000/aa/qingshu2.txt"));

}

/**

download file

@throws IOException

*/

@Test

public void download() throws IOException {

Path path = new Path("hdfs://localhost:9000/jdk-7u65-linux-i586.tar.gz");

FSDataInputStream input = fs.open(path);

FileOutputStream output = new FileOutputStream("/opt/download/doload.tgz");

IOUtils.copy(input, output);

}

/**

下载文件

@throws Exception

@throws IllegalArgumentException

*/

@Test

public void download2() throws Exception {

fs.copyToLocalFile(new Path("hdfs://localhost:9000/aa/qingshu2.txt"), new Path("/opt/download/haha2.txt"));

}

/**

查看文件信息

@throws IOException

@throws IllegalArgumentException

@throws FileNotFoundException

*/

@Test

public void listFiles() throws FileNotFoundException, IllegalArgumentException, IOException {

// listFiles列出的是文件信息,而且提供递归遍历

RemoteIterator<LocatedFileStatus> files = fs.listFiles(new Path("/"), true);

while(files.hasNext()){

LocatedFileStatus file = files.next();

Path filePath = file.getPath();

String fileName = filePath.getName();

System.out.println(fileName);

}

System.out.println("---------------------------------");

//listStatus 可以列出文件和文件夹的信息,但是不提供自带的递归遍历

FileStatus[] listStatus = fs.listStatus(new Path("/"));

for(FileStatus status: listStatus){

String name = status.getPath().getName();

System.out.println(name + (status.isDirectory()?" is dir":" is file"));

}

}

/**

创建文件夹

@throws Exception

@throws IllegalArgumentException

*/

@Test

public void mkdir() throws IllegalArgumentException, Exception {

fs.mkdirs(new Path("/aaa/bbb/ccc"));

}

/**

删除文件或文件夹

@throws IOException

@throws IllegalArgumentException

*/

@Test

public void rm() throws IllegalArgumentException, IOException {

fs.delete(new Path("/aa"), true);

}

}
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签:  Hadoop HDFS API 大数据