??斗地主捕鱼电竞提现秒到 广告位招租 - 15元/月全站展示
??支付宝搜索579087183领大额红包 ??伍彩集团官网直营彩票
??好待遇→招代理 ??伍彩集团官网直营彩票
??络茄网 广告位招租 - 15元/月全站展示
Hadoop(HA)集群+Zookeeper实现高可用集群

转载   陈_志鹏   2017-11-27   浏览量:496


Hadoop集群+Zookeeper实现高可用集群

设备的列表信息

节点类型IPhosts(主机名)
NameNode192.168.56.106master
NameNode192.168.56.107standby-master
DataNode,JournalNode192.168.56.108slave1
DataNode,JournalNode192.168.56.109slave2
DataNode,JournalNode192.168.56.110slave3

彩票开奖查询 www.kbyp.net 一共配备的5台的设备,master充当(active)角色,standby-master充当(standby)角色,当master出现单点故障的时候,standby-master就会顶上去充当(active)角色来维持整个集群的运作。

搭建Ha集群依赖环境

环境名称版本号
CentOS7
Jdkjdk-8u131
Hadoop2.6.5
zookeeper3.4.10

把jdk、Hadoop、zookeeper解压到/use/local/目录下
编辑 /etc/profile文件分别加入jdk、Hadoop的环境变量

vim /etc/profile

加入以下环境变量:

JAVA_HOME=/usr/local/jdk1.8.0_131/
PATH=$JAVA_HOME/bin:$PATH
CLASSPATH=.:$JAVA_HOME/lib/dt.jar:$JAVA_HOME/lib/tools.jar

export JAVA_HOME
export PATH
export CLASSPATH

export PATH=$PATH:/usr/local/hadoop-2.6.5/bin:/usr/local/hadoop-2.6.5/sbin

profile环境变量

 

编辑hadoop-2.6.5/etc/hadoop/hadoop-env.sh文件加入Java环境变量

Hadoop的Java环境变量

这是我本次搭建用到的系统版本。

配备zookeeper集群

我会在slave1、slave2、slave3这三台机器上添zookeeper集群,把JournalNode节点交给zookeeper做调度。
解压后进入/zookeeper-3.4.10/conf/目录
拷贝 cp zoo_sample.cfg 改名成 zoo.cfg
拷贝 cp zoo_sample.cfg zoo.cfg

在zoo.cfg文件添加以下配置:
dataDir=/home/zookeeper/data
dataLogDir=/home/zookeeper/logs
clientPort=2181
server.1=slave1:2888:3888
server.2=slave2:2888:3888
server.3=slave3:2888:3888
配置myid:

我这里有3台zk集群机器,每台机器都需要在/home/zookeeper/data 目录下创建一个myid的文件、并且要写上自己对应的服务id号,比如我在slave1这台机器对应的service.id是1 那么我在myid就会写上1,slave2的service.id是2 就会写上2.. 以此类推。

cd /home/zookeeper/data/
vim myid (写上服务的id号保存退出)

编写开机启动脚本(为了方便启动,不用每次手动启动zk集群,如果觉得麻烦可以忽略该步骤)

写了一个脚本设置zookepper开机启动
在/etc/rc.d/init.d/目录下添加一个文件叫zookeeper

命令:touch zookeeper

写入以下配置,JAVA_HOME是你jdk的安装位置,ZOO_LOG_DIR是zookeeper存放日志的位置,ZOOKEEPER_HOME是zookeeper的安装位置。

#!/bin/bash
#chkconfig: 2345 10 90
#description: service zookeeper
export   JAVA_HOME=/usr/local/jdk1.8.0_131
export   ZOO_LOG_DIR=/home/zookeeper/datalog
ZOOKEEPER_HOME=/usr/local/zookeeper-3.4.10
su root  ${ZOOKEEPER_HOME}/bin/zkServer.sh "$1"

为新建的zookeeper文件添加可执行权限

命令:chmod +x /etc/rc.d/init.d/zookeeper

添加zookeeper到开机启动

命令:chkconfig --add zookeeper

重启你的的zk集群
检查你的zookeeper集群确保没问题

命令:/usr/local/zookeeper-3.4.10/bin/zkServer.sh status

启动zookeeper集群

以上已经配置好zookeeper集群

设置SSH免密登陆

两台NameNode之间的协调需要SSH登陆来实现,所以两台NameNode必须要配置好
进入master这台机器的的根目录

输入命令:ssh-keygen -t rsa

出现提示可以不理会 直接按几次回车键就行了,出现以下界面说明生成私钥id_rsa和公钥id_rsa.pub


 

生成的公钥

把生成的公钥id发送到 slave1、slave2、slave3、机器上

输入命令: ssh-copy-id slave1

slave1会要求你输入slave1这台机器上的密码


 

要求你输入slave1密码

密码输入正确后你会看到以下界面,它说已经添加了密钥,它叫你尝试登陆一下

叫你尝试登陆一下slave1

添加其他的slave2、slave3、slave4、standby-master、master也是同样的操作。(一共5台机器,包括目前本机)

在master完成以上操作之后,再到standby-master 重复以上的操作。(记得两个NameNode都要进行操作,重要的事再说一遍)。

配置Hadoop集群

配置core-site.xml
在core-site.xml加入以下配置
master是整个服务的标识、以及配备了zookeeper的配置信息

<configuration>

 <property>  <name>fs.defaultFS</name>  <value>hdfs://master</value>
 </property>
 <property>  <name>hadoop.tmp.dir</name>  <value>/home/hadoopData/hdfs/temp</value>
 </property>

 <property>  <name>io.file.buffer.size</name>  <value>4096</value>
 </property><!--zookeeper配置-->
 <property>  <name>ha.zookeeper.quorum</name>  <value>slave1:2181,slave2:2181,slave3:2181</value>
 </property></configuration>

配置hdfs-site.xml

<configuration><property>
   <name>dfs.namenode.name.dir</name>
   <value>/home/hadoopData/dfs/name</value>
 </property>
 <property>
   <name>dfs.datanode.data.dir</name>
   <value>/home/hadoopData/dfs/data</value>
 </property>
 <property>
   <name>dfs.replication</name>
   <value>3</value>
 </property>
 <property>
   <name>dfs.webhdfs.enabled</name>
   <value>true</value>
 </property>
 <property>
   <name>dfs.permissions.superusergroup</name>
   <value>staff</value>
 </property>
 <property>
   <name>dfs.permissions.enabled</name>
   <value>false</value>
 </property><!-- NanmeNode主备切换核心配置 -->
 <property><name>dfs.nameservices</name><value>master</value></property><property>  <name>dfs.ha.namenodes.master</name>  <value>nn1,nn2</value></property><property>  <name>dfs.namenode.rpc-address.master.nn1</name>  <value>master:9000</value></property><property><name>dfs.namenode.http-address.master.nn1</name><value>master:50070</value></property><property><name>dfs.namenode.rpc-address.master.nn2</name><value>standby-master:9000</value></property><property><name>dfs.namenode.http-address.master.nn2</name><value>standby-master:50070</value></property><!-- 指定NameNode的元数据在JournalNode上的存放位置 --><property><name>dfs.namenode.shared.edits.dir</name><value>qjournal://slave1:8485;slave2:8485;slave3:8485/master</value></property><!-- 指定JournalNode在本地磁盘存放数据的位置 --><property>  <name>dfs.journalnode.edits.dir</name>  <value>/home/hadoopData/journal</value></property><!-- 开启NameNode故障时自动切换 --><property>  <name>dfs.ha.automatic-failover.enabled</name>  <value>true</value></property><property><name>dfs.client.failover.proxy.provider.master</name><value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value></property><property><name>dfs.ha.fencing.methods</name><value>sshfence</value></property><!--ssh免登陆 --><property><name>dfs.ha.fencing.ssh.private-key-files</name><value>/root/.ssh/id_rsa</value></property><property>  <name>dfs.replication</name>  <value>2</value></property><property>  <name>dfs.webhdfs.enabled</name>  <value>true</value></property></configuration>

注意事项:
我这里一共拆分了3部分来说明、以上的配置的文件分别有备注说明
在dfs.nameservices标签中的value 和core-site.xml配置中的服务名要一致,因为我起名叫master,所以我这里也叫master。
dfs.namenode.shared.edits.dir标签中存放的是你的zk集群的journalnode,后面记得加上你的服务名。

把这2份配置文件分别拷贝到5台机器上。

安装fuser

在你的两台NameNode都需要安装fuser
进入你的 .ssh目录(我的目录是/root/.ssh)

安装命令: yum provides "*/fuser"
安装命令:yum -y install psmisc

安装fuser

同样另外一台standby-master同样的操作。

启动Hadoop集群

在master上的操作

1.启动journalnode

命令:hadoop-daemon.sh start journalnode

因为我在master中配了slaves这个文件,把slave1、slave2、slave3都加了进来所以可以启动它们,查看DataNode节点上的journalnode是否启动成功


 

查看journalnode是否启动成功

出现journalnode说明启动成功了。

2.格式化zookepper

命令: hdfs zkfc -formatZK

操作完毕出现以下内容:


 

 

格式化zookepper

3.格式化hdfs

命令: hadoop namenode -format

操作完毕出现以下内容:


 

格式化hdfs

4.启动master的NameNode

命令: hadoop-daemon.sh start namenode

启动完毕后切换到standby-master操作

在standby-master操作

在master的NameNode启动之后,我们进行对NameNode的数据同步
在standby-master输入以下命令

命令:hdfs namenode -bootstrapStandby

出现以下信息:


 

NameNode的数据同步

启动Hadoop集群

回到master启动集群输入以下命令

命令: start-dfs.sh

在游览器输入 //192.168.56.106:50070/ 和 //192.168.56.107:50070/
出现以下情况说明已经成功了。


 

启动Hadoop集群

测试HA集群可用性

以上是master是active状态,我现在把它关闭,看看standby-master是否会自动升级为active状态。
关闭master:


 

关闭master

观察standby-master:


观察standby-master

可以看到standby-master已经自动升级为active状态说明整个HA集群搭建完成了。

Hadoop项目之基于CentOS7的Cloudera 5.10.1(CDH)的安装部署  //www.kbyp.net/topic/show.do?id=375892

Hadoop2.7.2集群搭建详解(高可用)  //www.kbyp.net/topic/show.do?id=375884

使用Ambari来部署Hadoop集群(搭建内网HDP源)  //www.kbyp.net/topic/show.do?id=375887

Ubuntu 14.04下Hadoop集群安装  //www.kbyp.net/topic/show.do?id=388043

CentOS 6.7安装Hadoop 2.7.2  //www.kbyp.net/topic/show.do?id=375927

CentOS 7.3下Hadoop2.8分布式集群安装与测试  //www.kbyp.net/topic/show.do?id=375948

CentOS 7 下 Hadoop 2.6.4 分布式集群环境搭建  //www.kbyp.net/topic/show.do?id=375912

Hadoop2.7.3+Spark2.1.0完全分布式集群搭建过程  //www.kbyp.net/topic/show.do?id=375908

更多Hadoop相关信息见Hadoop 专题页面 //www.kbyp.net/forum/findPage.do?categoryId=4&id=47

转载自:https://www.linuxidc.com/Linux/2017-11/148906.htm

招聘 不方便扫码就复制添加关注:程序员招聘谷,微信号:jobs1024



微服务理念以及dobbo+zookeeper入门微服务架构
微服务理念以及dobbo+zookeeper入门微服务架构。微服务架构成了当下的技术热点,实现微服务是要付出很大成本的,但也许是因为微服务的优点太过于吸引人,以至于大部分开发者都将它当成未来的发展趋势。
ZooKeeper是按照CP原则构建的,不适合做Service服务发现
ZooKeeper是按照CP原则构建的,不适合做Service服务发现。
Zookeeper ACL 使用node-zookeeper-client
再分布式系统中,ACL(AccessControl)十分重要;Zookeeper也提供了十分好用的ACL接口,下面我记录一下在nodejs下如何实现zookeeper的访问控制。Zookeeper的ACL通常表示为:Scheme:Id:Permission,即S
zookeeper环境搭建与启动
解压[[email protected]]#tarzxvfzookeeper-3.4.6.tar.gz[[email protected]]#pwd/home/zookeeper/zookeeper-3.4.6[[email protected]]#新建目录:[[email protected]]#mk
Hbase和Zookeeper分开管理
Hbase和Zookeeper分开管理,第一步:编辑confhbase-envsh,找到HBASE_MANAGES_ZK,加入如下一行:exportHBASE_MANAGES_ZK=false,HBase,不自动维护Zookeeper。
CentOS7下配置Hadoop集群和Zookeeper集群
1.版本centos764位,VM虚拟机12.0,jdk1.8.0hadoop2.9.0zookeeper3.4.62.Hadoop集群的配置0.下载解压安装文件解压命令tar-xzvf压缩文件名文件夹路径1.修改hadoop-env.sh添加jdk环境exportJAVA_HOME=/usr/java/jdk1.8.0_144文...
docker overlay network 使用ZooKeeper
docker通常情况下使用的是bridge网络,这种无法进行跨主机通讯,即,一台主机上的docker容器是不能直接访问另一台主机上的容器的内部IP。如果我们想要通DNS
SpringCloud用Zookeeper搭建配置中心的方法
本篇文章主要介绍了SpringCloud用Zookeeper搭建配置中心的方法,小编觉得挺不错的,现在分享给大家,也给大家做个参考。一起跟随小编过来看看吧
配置一个ZooKeeper伪分布式集群
配置一个ZooKeeper伪分布式集群,确定dataDir,创建目录,分别创建myid文件修改三份配置文件启动三个服务器。