centos7 搭建hadoop-3.2.1 nameNode HA with QJM & resourceManage HA

部署方案

NN-1 NN-2 DN ZK ZKFC JNN RS NM
node01 * * *
node02 * * * * * *
node03 * * * *
node04 * * * *

环境准备

  1. 先安装一台虚拟机
  2. 配置静态ip
    centos7 配置静态ip
  3. 修改主机名
    linux修改 hostname
  4. 安装jdk
    centos7安装java
  5. 关闭防火墙
    centos7关闭防火墙
  6. 下载hadoop 安装包
    我们这里使用的是hadoop-3.2.1.tar.gz
    放到/tmp目录
  7. 解压到/usr/local/hadoop/目录下
mkdir /usr/local/hadoop
tar -zxvf /tmp/hadoop-3.2.1.tar.gz -C /usr/local/hadoop
  1. 克隆虚拟机
    先保存当前虚拟机的快照
    然后右击该虚拟机,点击管理-->克隆
    选择现有快照,点击下一步
    选择创建完整克隆,点击下一步
    虚拟机名称,输入node02,点击完成。
    开启此虚拟机,修改ip和hostname
    按照上述步骤,创建node03和node04
  2. 配置node01的hosts,添加node2,node03,node04
vi /etc/hosts
添加
192.168.88.201 node01 
192.168.88.202 node02 
192.168.88.203 node03 
192.168.88.204 node04 

并将hosts发送给其他三台机器

scp /etc/hosts node02:/etc/hosts
scp /etc/hosts node03:/etc/hosts
scp /etc/hosts node04:/etc/hosts

输入用户名和密码 完成

  1. 配置免密登录
    在所有4台虚拟机上执行以下操作
ssh-keygen -t rsa -P '' -f ~/.ssh/id_rsa
cat ~/.ssh/id_rsa.pub >> ~/.ssh/authorized_keys
chmod 0600 ~/.ssh/authorized_keys

将node01的id_rsa.pub发送给其他三台机器

cd /root/.ssh
scp id_rsa.pub node02:`pwd`/node01.pub
scp id_rsa.pub node03:`pwd`/node01.pub
scp id_rsa.pub node04:`pwd`/node01.pub

在其他3太机器上执行

cd /root/.ssh
cat node01.pub >> authorized_keys 

在node01上试一下是否可以免密登录到其他几台机器上

ssh node02
exit
ssh node03
exit
ssh node04
exit

可以即ok
配置node02免密登录到其他三台机器,操作同上

开始部署

  1. 在node01机器上,配置hdfs-site.xml
cd /usr/local/hadoop/hadoop-3.2.1/etc/hadoop
vi hdfs-site.xml

加入以下配置

<configuration>
  <property>
    <name>dfs.nameservices</name>
    <value>mycluster</value>
  </property>
  <property>
    <name>dfs.ha.namenodes.mycluster</name>
    <value>nn1,nn2</value>
  </property>
  <property>
    <name>dfs.namenode.rpc-address.mycluster.nn1</name>
    <value>node01:8020</value>
  </property>
  <property>
    <name>dfs.namenode.rpc-address.mycluster.nn2</name>
    <value>node02:8020</value>
  </property>
  <property>
    <name>dfs.namenode.http-address.mycluster.nn1</name>
    <value>node01:9870</value>
  </property>
  <property>
    <name>dfs.namenode.http-address.mycluster.nn2</name>
    <value>node02:9870</value>
  </property>
  <property>
    <name>dfs.namenode.shared.edits.dir</name>
    <value>qjournal://node01:8485;node02:8485;node03:8485/mycluster</value>
  </property>
  <property>
    <name>dfs.client.failover.proxy.provider.mycluster</name>
    <value>org.apache.hadoop.hdfs.server.namenode.ha.ConfiguredFailoverProxyProvider</value>
  </property>
  <property>
    <name>dfs.ha.fencing.methods</name>
    <value>sshfence</value>
  </property>
  <property>
    <name>dfs.ha.fencing.ssh.private-key-files</name>
    <value>/root/.ssh/id_dsa</value>
  </property>
  <property>
    <name>dfs.journalnode.edits.dir</name>
    <value>/var/path/to/journal/node/local/data</value>
  </property>
  <property>
    <name>dfs.ha.automatic-failover.enabled</name>
    <value>true</value>
  </property>
</configuration>
  1. 配置core-site.xml
    vi core-site.xml
    加入以下配置
<configuration>
  <property>
    <name>fs.defaultFS</name>
    <value>hdfs://mycluster</value>
  </property>
  <property>
    <name>hadoop.tmp.dir</name>
    <value>/var/hadoop/ha</value>
  </property>
  <property>
     <name>ha.zookeeper.quorum</name>
     <value>node02:2181,node03:2181,node04:2181</value>
  </property>
</configuration>
  1. 编辑hadoop-env.sh中的JAVA_HOME
vi hadoop-env.sh

找到JAVA_HOME,并编辑

export JAVA_HOME=/usr/local/java/jdk1.8.0_251
  1. 编辑workes
vi workers

添加以下参数

node02
node03
node04
  1. 分发 hdfs-site.xml 和core-site.xml,hadoop-env.sh,workers 到node02,node03,node04
scp core-site.xml hdfs-site.xml hadoop-env.sh workers node02:`pwd`
scp core-site.xml hdfs-site.xml hadoop-env.sh workers node03:`pwd`
scp core-site.xml hdfs-site.xml hadoop-env.sh workers node04:`pwd`
  1. 在node01上
  • 修改sbin目录下的几个脚本,确保通过root用户可以把hadoop启起来
cd /usr/local/hadoop/hadoop-3.2.1/sbin

编辑start-dfs.sh和stop-dfs.sh文件,添加下列参数:

HDFS_DATANODE_USER=root
HDFS_DATANODE_SECURE_USER=hdfs
HDFS_NAMENODE_USER=root
HDFS_SECONDARYNAMENODE_USER=root
HDFS_JOURNALNODE_USER=root
HDFS_ZKFC_USER=root

编辑start-yarn.sh和stop-yarn.sh文件,添加下列参数:

YARN_RESOURCEMANAGER_USER=root
HDFS_DATANODE_SECURE_USER=yarn
YARN_NODEMANAGER_USER=root

把这几个文件分发到其他节点

scp start-dfs.sh stop-dfs.sh start-yarn.sh stop-yarn.sh node02:`pwd`
scp start-dfs.sh stop-dfs.sh start-yarn.sh stop-yarn.sh node03:`pwd`
scp start-dfs.sh stop-dfs.sh start-yarn.sh stop-yarn.sh node04:`pwd`
  1. 搭建zookeeper
  • 下载apache-zookeeper-3.6.1-bin.tar.gz,并放到node02的/tmp目录下
  • 解压到/usr/local/zookeeper目录
mkdir /usr/local/zookeeper
tar -zxvf /tmp/apache-zookeeper-3.6.1-bin.tar.gz -C /usr/local/zookeeper
  • 修改配置文件
cd /usr/local/zookeeper/apache-zookeeper-3.6.1-bin/conf
cp zoo_sample.cfg zoo.cfg
vi zoo.cfg

添加以下配置

#找到dataDir,并改成以下值
dataDir=/var/zookeeper
#添加以下配置
server.1=node02:2888:3888
server.2=node03:2888:3888
server.3=node04:2888:3888
  • 将zookeeper 分发到node03,node04
cd /usr/local
scp -r zookeeper/ node03:`pwd`
scp -r zookeeper/ node04:`pwd`
  • 在node02,node03,node04上创建对应的目录
mkdir /var/zookeeper
  • 在node02,node03,node04的/var/zookeeper创建myid文件
    node02 echo 1 > /var/zookeeper/myid
    node03 echo 2 > /var/zookeeper/myid
    node04 echo 3 > /var/zookeeper/myid
  • 启动zookeeper集群
    node02,node03,node04分别执行
cd /usr/local/zookeeper/apache-zookeeper-3.6.1-bin/
bin/zkServer.sh start

可以执行以下命令看一下状态

bin/zkServer.sh status
  1. 启动journalnode
    在node01,node02,node03上分别执行
cd /usr/local/hadoop/hadoop-3.2.1/
bin/hdfs --daemon start journalnode

然后jps看一下,JournalNode是否起来了

  1. 格式化文件系统
    在node01上执行
cd /usr/local/hadoop/hadoop-3.2.1/
bin/hdfs namenode -format
  1. node01启动namenode
cd /usr/local/hadoop/hadoop-3.2.1/
sbin/hadoop-daemon.sh start namenode
  1. node02执行bootstrapStandby
cd /usr/local/hadoop/hadoop-3.2.1/
bin/hdfs namenode -bootstrapStandby
  1. 在zookeeper上初始化Ha状态
    在node01上执行
cd /usr/local/hadoop/hadoop-3.2.1/
bin/hdfs zkfc -formatZK
  1. 启动当前hadoop集群
cd /usr/local/hadoop/hadoop-3.2.1/
sbin/start-dfs.sh
  1. jsp看一下,进程是否正确
[root@node01 hadoop-3.2.1]# jps
15816 NameNode
16521 DFSZKFailoverController
16572 Jps
15615 JournalNode
[root@node02 hadoop-3.2.1]# jps
13063 Jps
13033 DFSZKFailoverController
1818 QuorumPeerMain
12763 NameNode
12875 DataNode
12606 JournalNode
[root@node03 hadoop-3.2.1]# jps
10513 Jps
10306 JournalNode
10402 DataNode
1734 QuorumPeerMain
[root@node04 var]# jps
2272 Jps
2209 DataNode
1764 QuorumPeerMain
  1. 浏览器访问http://node01:9870
  2. 关闭hadoop集群和zookeeper集群
    在node01上
cd /usr/local/hadoop/hadoop-3.2.1/
sbin/stop-dfs.sh

在node02,node03,node04上

cd /usr/local/zookeeper/apache-zookeeper-3.6.1-bin/
bin/zkServer.sh stop
  1. 开启zookeeper集群和hadoop集群
    在node02,node03,node04上
cd /usr/local/zookeeper/apache-zookeeper-3.6.1-bin/
bin/zkServer.sh start

在node01上

cd /usr/local/hadoop/hadoop-3.2.1/
sbin/start-dfs.sh

配置高可用资源管理

在node01节点上

  1. 配置mapred-site.xml
cd /usr/local/hadoop/hadoop-3.2.1/etc/hadoop/
vi mapred-site.xml

配置如下

<configuration>
    <property>
        <name>mapreduce.framework.name</name>
        <value>yarn</value>
    </property>
    <property>
        <name>mapreduce.application.classpath</name>
        <value>$HADOOP_MAPRED_HOME/share/hadoop/mapreduce/*:$HADOOP_MAPRED_HOME/share/hadoop/mapreduce/lib/*</value>
    </property>
</configuration>
  1. 配置yarn-site.xml
    vi yarn-site.xml
    配置如下
<configuration>

<!-- Site specific YARN configuration properties -->
    <property>
        <name>yarn.nodemanager.aux-services</name>
        <value>mapreduce_shuffle</value>
    </property>
    <property>
        <name>yarn.nodemanager.env-whitelist</name>
        <value>JAVA_HOME,HADOOP_COMMON_HOME,HADOOP_HDFS_HOME,HADOOP_CONF_DIR,CLASSPATH_PREPEND_DISTCACHE,HADOOP_YARN_HOME,HADOOP_MAPRED_HOME</value>
    </property>
    <property>
      <name>yarn.resourcemanager.ha.enabled</name>
      <value>true</value>
    </property>
    <property>
      <name>yarn.resourcemanager.cluster-id</name>
      <value>cluster1</value>
    </property>
    <property>
      <name>yarn.resourcemanager.ha.rm-ids</name>
      <value>rm1,rm2</value>
    </property>
    <property>
      <name>yarn.resourcemanager.hostname.rm1</name>
      <value>node03</value>
    </property>
    <property>
      <name>yarn.resourcemanager.hostname.rm2</name>
      <value>node04</value>
    </property>
    <property>
      <name>yarn.resourcemanager.webapp.address.rm1</name>
      <value>node03:8088</value>
    </property>
    <property>
      <name>yarn.resourcemanager.webapp.address.rm2</name>
      <value>node04:8088</value>
    </property>
    <property>
      <name>hadoop.zk.address</name>
      <value>node02:2181,node03:2181,node04:2181</value>
    </property>
</configuration>


  1. 分发配置
scp mapred-site.xml yarn-site.xml node02:`pwd`
scp mapred-site.xml yarn-site.xml node03:`pwd`
scp mapred-site.xml yarn-site.xml node04:`pwd`
  1. 配置node03,node04之间的免密登录
    node03节点上
cd /root/.ssh
scp id_rsa.pub node04:`pwd`/node03.pub

node04节点上

cd /root/.ssh
cat node03.pub >> authorized_keys 
scp id_rsa.pub node03:`pwd`/node04.pub

node03节点上

cat node04.pub >> authorized_keys 
ssh node04
ssh node03
exit
exit

可以互相免密登录即可

  1. 按照启动顺序进行启动
  • 在node02,node03,node04上,先启动zookeeper
cd /usr/local/zookeeper/apache-zookeeper-3.6.1-bin/
bin/zkServer.sh start
  • 在node01上, 启动hdfs
cd /usr/local/hadoop/hadoop-3.2.1/
sbin/start-dfs.sh
  • 在node01上启动资源管理
cd /usr/local/hadoop/hadoop-3.2.1/
sbin/start-yarn.sh
  1. 浏览器访问一下http://node03:8088/
    出现Nodes of the cluster的页面即可
  2. 关闭hadoop集群和zookeeper集群
    在node01上
cd /usr/local/hadoop/hadoop-3.2.1/
sbin/stop-all.sh

在node02,node03,node04上

cd /usr/local/zookeeper/apache-zookeeper-3.6.1-bin/
bin/zkServer.sh stop
最后编辑于
©著作权归作者所有,转载或内容合作请联系作者
  • 序言:七十年代末,一起剥皮案震惊了整个滨河市,随后出现的几起案子,更是在滨河造成了极大的恐慌,老刑警刘岩,带你破解...
    沈念sama阅读 203,547评论 6 477
  • 序言:滨河连续发生了三起死亡事件,死亡现场离奇诡异,居然都是意外死亡,警方通过查阅死者的电脑和手机,发现死者居然都...
    沈念sama阅读 85,399评论 2 381
  • 文/潘晓璐 我一进店门,熙熙楼的掌柜王于贵愁眉苦脸地迎上来,“玉大人,你说我怎么就摊上这事。” “怎么了?”我有些...
    开封第一讲书人阅读 150,428评论 0 337
  • 文/不坏的土叔 我叫张陵,是天一观的道长。 经常有香客问我,道长,这世上最难降的妖魔是什么? 我笑而不...
    开封第一讲书人阅读 54,599评论 1 274
  • 正文 为了忘掉前任,我火速办了婚礼,结果婚礼上,老公的妹妹穿的比我还像新娘。我一直安慰自己,他们只是感情好,可当我...
    茶点故事阅读 63,612评论 5 365
  • 文/花漫 我一把揭开白布。 她就那样静静地躺着,像睡着了一般。 火红的嫁衣衬着肌肤如雪。 梳的纹丝不乱的头发上,一...
    开封第一讲书人阅读 48,577评论 1 281
  • 那天,我揣着相机与录音,去河边找鬼。 笑死,一个胖子当着我的面吹牛,可吹牛的内容都是我干的。 我是一名探鬼主播,决...
    沈念sama阅读 37,941评论 3 395
  • 文/苍兰香墨 我猛地睁开眼,长吁一口气:“原来是场噩梦啊……” “哼!你这毒妇竟也来了?” 一声冷哼从身侧响起,我...
    开封第一讲书人阅读 36,603评论 0 258
  • 序言:老挝万荣一对情侣失踪,失踪者是张志新(化名)和其女友刘颖,没想到半个月后,有当地人在树林里发现了一具尸体,经...
    沈念sama阅读 40,852评论 1 297
  • 正文 独居荒郊野岭守林人离奇死亡,尸身上长有42处带血的脓包…… 初始之章·张勋 以下内容为张勋视角 年9月15日...
    茶点故事阅读 35,605评论 2 321
  • 正文 我和宋清朗相恋三年,在试婚纱的时候发现自己被绿了。 大学时的朋友给我发了我未婚夫和他白月光在一起吃饭的照片。...
    茶点故事阅读 37,693评论 1 329
  • 序言:一个原本活蹦乱跳的男人离奇死亡,死状恐怖,灵堂内的尸体忽然破棺而出,到底是诈尸还是另有隐情,我是刑警宁泽,带...
    沈念sama阅读 33,375评论 4 318
  • 正文 年R本政府宣布,位于F岛的核电站,受9级特大地震影响,放射性物质发生泄漏。R本人自食恶果不足惜,却给世界环境...
    茶点故事阅读 38,955评论 3 307
  • 文/蒙蒙 一、第九天 我趴在偏房一处隐蔽的房顶上张望。 院中可真热闹,春花似锦、人声如沸。这庄子的主人今日做“春日...
    开封第一讲书人阅读 29,936评论 0 19
  • 文/苍兰香墨 我抬头看了看天上的太阳。三九已至,却和暖如春,着一层夹袄步出监牢的瞬间,已是汗流浃背。 一阵脚步声响...
    开封第一讲书人阅读 31,172评论 1 259
  • 我被黑心中介骗来泰国打工, 没想到刚下飞机就差点儿被人妖公主榨干…… 1. 我叫王不留,地道东北人。 一个月前我还...
    沈念sama阅读 43,970评论 2 349
  • 正文 我出身青楼,却偏偏与公主长得像,于是被迫代替她去往敌国和亲。 传闻我的和亲对象是个残疾皇子,可洞房花烛夜当晚...
    茶点故事阅读 42,414评论 2 342