Hadoop环境搭建之一安装jdk,hadoop基本配置及运行MapReduce案例在本地模式下
2017-10-31 10:51
1041 查看
需要在root用户下
如果安装老版的jdk,可以卸载重新安装 如java
卸载已经安装的java
cd 安装软件的目录
ls 查看
解压jdk
tar -zxf jdk -C 解压到的目录
cd jdk1.7.0_67/
pwd 查看当前路径
vi /etc/profile
source /etc/profile 使之生效
exit 退出一下
java -version 查看版本
cd hadoop-2.5.0/
cd etc/hadoop/
echo ${JAVA_HOME}
查看jdk安装目录
vi hadoop-env
将export JAVA_HOME = jdk安装的目录
例子 统计文件中单词的个数
cd hadoop-2.5.0
mkdir wcinput
cd wcinput/
touch wc.input
vi wc.input
wc.input 文件中插入hadoop yarn hadoop mapreduce hadoop hdfs yarn nodemanager
bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.5.0.jar wordcount wcinput wcoutput
cat wcoutput/part-r-00000
本地模式Mapreduce程序运行在本地,启动JVM
如果安装老版的jdk,可以卸载重新安装 如java
卸载已经安装的java
rpm -qa|grep java 这里会打印出三行 rpm -e --nodeps 将上面的三行写到后面,用空格隔开
cd 安装软件的目录
ls 查看
解压jdk
tar -zxf jdk -C 解压到的目录
cd jdk1.7.0_67/
pwd 查看当前路径
vi /etc/profile
export JAVA_HOME=java的路径 export PATH=$PATH:$JAVA_HOME/bin
source /etc/profile 使之生效
exit 退出一下
java -version 查看版本
tar -zxf hadoop-2.5.0.tar.gz -C 解压缩路径
cd hadoop-2.5.0/
cd etc/hadoop/
echo ${JAVA_HOME}
查看jdk安装目录
vi hadoop-env
将export JAVA_HOME = jdk安装的目录
cd .. cd hadoop-2.5.0 mkdir input cp etc/hadoop/*.xml input/ bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.5.2.jar grep input output 'dfs[a-z.]+' cat output/*
例子 统计文件中单词的个数
cd hadoop-2.5.0
mkdir wcinput
cd wcinput/
touch wc.input
vi wc.input
wc.input 文件中插入hadoop yarn hadoop mapreduce hadoop hdfs yarn nodemanager
bin/hadoop jar share/hadoop/mapreduce/hadoop-mapreduce-examples-2.5.0.jar wordcount wcinput wcoutput
cat wcoutput/part-r-00000
本地模式Mapreduce程序运行在本地,启动JVM
相关文章推荐
- Hadoop环境搭建之二配置启动HDFS及本地模式运行MapReduce案例(使用HDFS上数据)
- hadoop初识之三:搭建hadoop环境(配置HDFS,Yarn及mapreduce 运行在yarn)上及三种运行模式(本地模式,伪分布式和分布式介)
- Hadoop基本配置及在本地模式下运行MapReduce案例
- (2) hadoop 配置部署启动HDFS及本地模式运行MapReduce案例(使用HDFS上数据)
- 攻城狮在路上(陆)-- 配置hadoop本地windows运行MapReduce程序环境
- hadoop平台搭建(3)--hadoop安装、环境配置、单机运行
- Centos6.5基本环境以及jdk1.7安装配置(hadoop平台)
- Hadoop 2.x环境搭建之三配置部署启动YARN及在YARN上运行MapReduce程序
- 在VMWare Workstation上使用RedHat Linux安装和配置Hadoop群集环境05_HDFS文件系统和Mapreduce框架的启动和运行
- 2.hadoop基本配置,本地模式,伪分布式搭建
- 开始hadoop前的准备:ubuntu学习笔记-基本环境的搭建(ssh的安装,SecureCRT连接,vim的安装及使用、jdk的安装)
- Hadoop2.x环境搭建之搭建伪分布模式以及运行wordcount案例【HDFS上的数据】
- 1、单机运行环境搭建之 --CentOS-6.5安装配置JDK-8
- Hadoop MapReduce案例word count本地环境运行时遇到的一些问题
- Hadoop 2.x环境搭建之单机运行模式配置
- Hadoop环境搭建三之配置部署启动YARN以及在YARN上运行MapReduce程序
- 关于IDEA的基本环境配置以及快速使用(git拉载程序,Jdk安装,tomcat部署,应用程序打包运行)
- windows搭建spark运行环境(windows scala,hadoop,spark安装,idea使用配置等)
- Ubuntu16.04下伪分布式环境搭建之hadoop2.6.0、jdk1.7、Hbase0.98的安装与配置
- 安装Hadoop,搭建jdk环境,运行wordcount程序