JavaAPI操作HDFS文件
2020-07-12 16:58
155 查看
创建maven工程
new project -Maven quickstart
配置prm.xml
<dependencies> <dependency> <groupId>junit</groupId> <artifactId>junit</artifactId> <version>4.12</version> <scope>test</scope> </dependency> <dependency> <groupId>org.apache.hadoop</groupId> <artifactId>hadoop-common</artifactId> <version>2.6.0</version> </dependency> <!-- https://mvnrepository.com/artifact/org.apache.hadoop/hadoop-client --> <dependency> <groupId>org.apache.hadoop</groupId> <artifactId>hadoop-client</artifactId> <version>2.6.0</version> </dependency> <!-- https://mvnrepository.com/artifact/org.apache.hadoop/hadoop-hdfs --> <dependency> <groupId>org.apache.hadoop</groupId> <artifactId>hadoop-hdfs</artifactId> <version>2.6.0</version> </dependency> <dependency> <groupId>commons-logging</groupId> <artifactId>commons-logging</artifactId> <version>1.2</version> </dependency> <dependency> <groupId>log4j</groupId> <artifactId>log4j</artifactId> <version>1.2.17</version> </dependency> <dependency> <groupId>junit</groupId> <artifactId>junit</artifactId> <version>4.12</version> <scope>test</scope> </dependency> <dependency> <groupId>org.junit.jupiter</groupId> <artifactId>junit-jupiter-api</artifactId> <version>RELEASE</version> <scope>compile</scope> </dependency> </dependencies>
在$HADOOP_HOME/etc/hadoop/hdfs-site.xml中添加
<property> <name>dfs.permissions</name> <value>false</value> </property>
1.创建目录
@Test public void testMkdirs() throws URISyntaxException, IOException, InterruptedException { //创建配置 Configuration conf = new Configuration(); //2获取文件系统 FileSystem fs = FileSystem.get(new URI("hdfs://192.168.106.107:9000"), conf, "root"); //3调用API fs.mkdirs(new Path("/hdfs/shell")); fs.close(); }
上传本地一个文件
@Test public void testCopyFromLocalFile() throws URISyntaxException, IOException, InterruptedException { Configuration conf = new Configuration(); //2获取文件系统 FileSystem fs = FileSystem.get(new URI("hdfs://192.168.106.107:9000"), conf, "root"); fs.copyFromLocalFile(new Path("a\\aa.txt"), new Path("/user/a.txt")); fs.close(); }
下载到本地一个文件
@Test public void testCopyToLocalFile() throws URISyntaxException,IOException,InterruptedException{ //1.创建配置文件 Configuration conf=new Configuration(); //2.获取文件系统 FileSystem fs=FileSystem.get(new URI("hdfs://192.168.106.107:9000"),conf,"root"); //3.调用API操作 fs.copyToLocalFile(new Path("/hdfs"),new Path("E:\\")); //4.关闭资源 fs.close(); }
删除文件
@Test public void testdelete() throws URISyntaxException, IOException, InterruptedException { Configuration conf = new Configuration(); //2获取文件系统 FileSystem fs = FileSystem.get(new URI("hdfs://192.168.106.107:9000"), conf, "root"); fs.delete(new Path("/hdfs/aa.txt"),true); fs.close(); }
http://192.168.106.107:50070
查看文件是否操作成功
相关文章推荐
- 4000 hadoop入门(三)之 javaAPI操作Hdfs,进行文件操作
- 用流的方式操作HDFS文件 JAVA API
- 从HDFS读取文件,把记录存到Hbase的java API操作
- JAVA API操作HDFS文件系统
- 利用hdfs的java api进行文件操作注意事项
- Java API操作HDFS文件
- HDFS文件系统操作JAVA-API
- springboot上传下载文件(3)--java api 操作HDFS集群+集群配置
- JAVA API操作小文件合并至HDFS(笔记)
- JAVA API 实现hdfs文件操作
- JAVA API操作HDFS文件系统
- Hadoop系列-HDFS文件操作的JAVA API用法(七)
- JAVA操作HDFS API(hadoop)
- JAVA操作HDFS API(hadoop)
- HDFS常用的文件API操作
- 编译java文件的时候出现API已过时的提示,查看是哪个方法过时的具体操作
- Java实现CSV格式文件的读写(操作API)
- HDFS的JavaAPI操作
- java调用API操作HDFS
- hadoop - hadoop2.6 伪分布式 - Java API 操作 HDFS