大数据Hadoop的分布架构ZooKeeper实战,甲骨文总监整理!
2018-04-02 19:54
435 查看
今天小编给大家分享的是现今Oracle高级技术总监的课堂笔记:大数据Hadoop的HA高可用架构集群+分布架构ZooKeeper实战应用,这个课堂笔记需要有一些基础。
(1)Hadoop的体系结构(2)Spark的体系结构3、HA:high avaibility高可用性 ----> 解决大数据的单点故障问题===========================================一、大数据架构的单点故障问题1、什么是单点故障?就是当主节点宕机后,会造成整个集群无法继续使用2、对大家的要求:画图二、什么是ZooKeeper(动物园管理员)1、相当于是一个“数据库”三、实战:HDFS的HA实现1、搭建ZooKeeper集群准备:所有节点(1)关闭防火墙systemctl stop firewalld.servicesystemctl disable firewalld.service(2)设置主机名 vi /etc/hosts192.168.157.12 bigdata12192.168.157.13 bigdata13192.168.157.14 bigdata14(3)安装JDK目录: /root/trainingtar -zxvf jdk-8u144-linux-x64.tar.gz -C ~/training/设置环境变量vi ~/.bash_profileJAVA_HOME=/root/training/jdk1.8.0_144export JAVA_HOMEPATH=$JAVA_HOME/bin:$PATHexport PATH生效环境变量 source ~/.bash_profile(4)配置免密码登录(不对称加密)ssh-keygen -t rsassh-copy-id -i .ssh/id_rsa.pub root@bigdata12ssh-copy-id -i .ssh/id_rsa.pub root@bigdata13ssh-copy-id -i .ssh/id_rsa.pub root@bigdata142、搭建ZooKeeper集群(1)首先在bigdata12上搭建(*) tar -zxvf zookeeper-3.4.10.tar.gz -C ~/training/设置ZK的环境变量 vi ~/.bash_profileZOOKEEPER_HOME=/root/training/zookeeper-3.4.10export ZOOKEEPER_HOMEPATH=$ZOOKEEPER_HOME/bin:$PATHexport PATH(*) 修改配置文件: conf/zoo.cfg数据的保存路径dataDir=/root/training/zookeeper-3.4.10/tmp一共有三台机器2888:通信端口3888:选举端口server.1=bigdata12:2888:3888server.2=bigdata13:2888:3888server.3=bigdata14:2888:3888(*) 在/root/training/zookeeper-3.4.10/tmp创建一个文件: myid(2)把bigdata12上的zk复制到其他节点上scp -r zookeeper-3.4.10/ root@bigdata13:/root/trainingscp -r zookeeper-3.4.10/ root@bigdata14:/root/training(3)修改各自的myid(4)在每台机器上,启动ZKzkServer.sh start/status(5)演示Demo(*)选举机制(*)数据同步3、使用4台机器来搭建
大数据、Python学习资料分享群:596471005,我自己整理的一份最新的适合2018年学习的大数据开发和零基础入门教程已经上传
到群文件。欢迎初学和进阶中的小伙伴。也可以关注我。
(1)Hadoop的体系结构(2)Spark的体系结构3、HA:high avaibility高可用性 ----> 解决大数据的单点故障问题===========================================一、大数据架构的单点故障问题1、什么是单点故障?就是当主节点宕机后,会造成整个集群无法继续使用2、对大家的要求:画图二、什么是ZooKeeper(动物园管理员)1、相当于是一个“数据库”三、实战:HDFS的HA实现1、搭建ZooKeeper集群准备:所有节点(1)关闭防火墙systemctl stop firewalld.servicesystemctl disable firewalld.service(2)设置主机名 vi /etc/hosts192.168.157.12 bigdata12192.168.157.13 bigdata13192.168.157.14 bigdata14(3)安装JDK目录: /root/trainingtar -zxvf jdk-8u144-linux-x64.tar.gz -C ~/training/设置环境变量vi ~/.bash_profileJAVA_HOME=/root/training/jdk1.8.0_144export JAVA_HOMEPATH=$JAVA_HOME/bin:$PATHexport PATH生效环境变量 source ~/.bash_profile(4)配置免密码登录(不对称加密)ssh-keygen -t rsassh-copy-id -i .ssh/id_rsa.pub root@bigdata12ssh-copy-id -i .ssh/id_rsa.pub root@bigdata13ssh-copy-id -i .ssh/id_rsa.pub root@bigdata142、搭建ZooKeeper集群(1)首先在bigdata12上搭建(*) tar -zxvf zookeeper-3.4.10.tar.gz -C ~/training/设置ZK的环境变量 vi ~/.bash_profileZOOKEEPER_HOME=/root/training/zookeeper-3.4.10export ZOOKEEPER_HOMEPATH=$ZOOKEEPER_HOME/bin:$PATHexport PATH(*) 修改配置文件: conf/zoo.cfg数据的保存路径dataDir=/root/training/zookeeper-3.4.10/tmp一共有三台机器2888:通信端口3888:选举端口server.1=bigdata12:2888:3888server.2=bigdata13:2888:3888server.3=bigdata14:2888:3888(*) 在/root/training/zookeeper-3.4.10/tmp创建一个文件: myid(2)把bigdata12上的zk复制到其他节点上scp -r zookeeper-3.4.10/ root@bigdata13:/root/trainingscp -r zookeeper-3.4.10/ root@bigdata14:/root/training(3)修改各自的myid(4)在每台机器上,启动ZKzkServer.sh start/status(5)演示Demo(*)选举机制(*)数据同步3、使用4台机器来搭建
大数据、Python学习资料分享群:596471005,我自己整理的一份最新的适合2018年学习的大数据开发和零基础入门教程已经上传
到群文件。欢迎初学和进阶中的小伙伴。也可以关注我。
相关文章推荐
- 大数据,云计算,架构,数据分析师,Hadoop,Spark,Storm,Kafka,人工智能,机器学习,深度学习,项目实战视频教程
- 大数据架构开发 挖掘分析 Hadoop HBase Hive Storm Spark Java Flume ZooKeeper Kafka Redis MongoDB 机器学习 云计算 视频教程
- 北风首套Hadoop大数据包跳槽课程(Hive、ZooKeeper、Storm、Spark、项目实战)
- 大数据架构开发 挖掘分析 Hadoop HBase Hive Flume ZooKeeper Storm Kafka Redis MongoDB Scala Spark 机器学习 Docker 云计算
- 大数据架构开发 挖掘分析 Hadoop HBase Hive Storm Spark Flume ZooKeeper Kafka Redis MongoDB Java 机器学习 云计算 视频教程
- 大数据Spark “蘑菇云”行动Hadoop实战速成之路第29课:Hadoop架构详解及Hadoop集群搭建、配置和测试实战
- 大数据架构开发 挖掘分析 Hadoop HBase Hive Flume ZooKeeper Storm Kafka Redis MongoDB Scala Spark 机器学习 Docker 虚拟化
- 大数据下的数据分析-Hadoop架构解析[转]
- 基于Hadoop的大数据平台实施记——整体架构设计
- 初探大数据-hive架构分析-实战五
- 1 大数据实战系列-spark+hadoop集成环境搭建
- .net企业级架构实战之4——Spring.net下的nHibernate数据访问模板[1]
- 大数据 (三)Hadoop-HDFS namenode的HA --- zookeeper的引出
- Hadoop大数据零基础高端实战培训
- 大数据Hadoop核心架构HDFS+MapReduce+Hbase+Hive内部机理详解
- 【Spark亚太研究院系列丛书】Spark实战高手之路-第一章 构建Spark集群-配置Hadoop伪分布模式并运行Wordcount(2)
- 深入理解zookeeper架构-《每日五分钟搞定大数据》
- 后Hadoop时代的大数据架构
- 大数据技术hadoop入门理论系列之二—HDFS架构简介
- 个人hadoop学习总结:Hadoop集群+HBase集群+Zookeeper集群+chukwa监控(包括单机、伪分布、完全分布安装操作)