您的位置:首页 > 大数据 > Hadoop

递归打印出HDFS上的所有文件夹

2015-12-23 22:33 405 查看
package com.hadoop.hdfs;

import java.io.FileNotFoundException;
import java.io.IOException;
import java.net.URI;
import java.net.URISyntaxException;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FileStatus;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;

public class ListHdfsFiles {
	public static Configuration conf = new Configuration();
	public static String uri = "hdfs://hadoop01:9000/";
	public static Path path = new Path("hdfs://hadoop01:9000/");
	public static FileSystem fs = null;
	public static void main(String[] args) throws IOException, URISyntaxException {
		fs = FileSystem.get(new URI(uri),conf);
		//从hdfs根路径开始
		FileStatus[] files = fs.listStatus(path);
		
		//开始调用打印函数
		for(FileStatus file : files){
			printHdfs(file,fs);
		}
	}
	
	public static void printHdfs(FileStatus file,FileSystem fs) throws FileNotFoundException, IOException{
		//如果为文件夹,则打印其hdfs路径
		if(file.isDirectory()){
			if(!file.isFile()){
				System.out.println(file.getPath());
			}
			//得到该路径下的文件
			FileStatus[] files = fs.listStatus(file.getPath());
			//如果该路径下仍然有文件,则递归调用打印函数
			if(files.length>0){
				for(FileStatus f : files)
				printHdfs(f,fs);
			}
		}
	}

}



                                            
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: