您的位置:首页 > 大数据 > Hadoop

上传本地文件到HDFS

2015-10-30 19:44 579 查看
源代码:

import java.io.IOException;

import org.apache.hadoop.conf.Configuration;
import org.apache.hadoop.fs.FileStatus;
import org.apache.hadoop.fs.FileSystem;
import org.apache.hadoop.fs.Path;
public class UploadFile {
public static void main(String[] args) throws IOException {
Configuration conf = new Configuration();
//conf.addResource(new Path("conf/hadoop-default.xml"));
//conf.addResource(new Path("conf/hadoop-site.xml"));
//通过conf来指定要操作的HDFS
FileSystem hdfs = FileSystem.get(conf);
//要上传的源文件所在路径
Path src = new Path("D:\\v.txt");
//hadoop文件系统的跟目录
Path dst = new Path("/");
//将源文件copy到hadoop文件系统
hdfs.copyFromLocalFile(src, dst);
System.out.println("上传到"+conf.get("fs.default.name"));
FileStatus files[] = hdfs.listStatus(dst);
for(int i=0;i<files.length;i++)
{
System.out.println(files[i].getPath());
}
}
}


还需要一个jar包:http://download.csdn.net/detail/lixiaolun/9227851

如果报Configuration错误,需要再下一个commons-logging.jar。网上随便就能搜到。

还有现成的java代码,不需要导入jar报:http://download.csdn.net/detail/lixiaolun/9227879
内容来自用户分享和网络整理,不保证内容的准确性,如有侵权内容,可联系管理员处理 点击这里给我发消息
标签: