HDFS 2.2 配置文件
2015-09-17 17:10
330 查看
core-site.xml
hdfs-site.xml
[code] <property> <name>fs.defaultFS</name> <value>hdfs://localhost:9000</value> </property> <property> <name>io.file.buffer.size</name> <value>131072</value> </property> <property> <name>hadoop.tmp.dir</name> <value>file:/home/cloudwave/tmp</value> </property>
hdfs-site.xml
[code]<property> <name>dfs.namenode.secondary.http-address</name> <value>localhost:9001</value> </property> <property> <name>dfs.namenode.name.dir</name> <value>file:/home/cloudwave/dfs/name</value> </property> <property> <name>dfs.datanode.data.dir</name> <value>file:/home/cloudwave/dfs/data</value> </property> <property> <name>dfs.replication</name> <value>3</value> </property> <property> <name>dfs.webhdfs.enabled</name> <value>true</value> </property>
相关文章推荐
- HDFS原理讲解
- Flume前述(三)--多 agent 汇聚写入 HDFS
- Hadoop-2.4.1安装配置
- HDFS(数学题)
- Hadoop分布式文件系统HDFS
- linux hadoop 搭建
- HDFS hflush hsync和close的区别
- 至HDFS附加内容
- hadoop2.7集群迁移namenode
- tachyon与hdfs,以及spark整合
- tachyon与hdfs,以及spark整合
- hadoop2.7集群,新增datanode节点后报错的解决思路
- HDFS文件写入与读取
- 对HDFS进行操作——笔记
- hadoop三种安装模式
- hadoop新增节点
- flume-hdfs 按照时间关闭并新开文件
- hdfs体系
- 在基于docker的Hadoop集群上搭建Spark
- Dream------Hadoop--网络拓扑与Hadoop--摘抄