集群分发脚本
- 放在
~/bin/
下,注意需要配置可执行权限 - for 循环中配置节点主机名
1 | !/bin/bash |
集群配置
- 集群部署规划
- 这里注意 NameNode、SecondaryNameNode、ResourceManager 应分别放在不同服务器上
hadoop11 | hadoop12 | hadoop13 | |
---|---|---|---|
HDFS | NameNode DataNode |
DataNode | SecondaryNameNode DataNode |
YARN | NodeManager | ResourceManager NodeManager |
NodeManager JobHistoryServer |
集群配置:(注意这里添改的配置信息均继承自 hadoop 快速入门指南一文)
core-site.xml 将 hdfs 配置在 hadoop11(NameNode 节点)上
1
2
3
4<property>
<name>fs.defaultFS</name>
<value>hdfs://hadoop11:9000</value>
</property>hdfs-site.xml 指定 hadoop 辅助节点 (SecondaryNameNode 节点)
1
2
3
4<property>
<name>dfs.namenode.secondary.http-address</name>
<value>hadoop13:50090</value>
</property>yarn-site.xml 指定 YARN 的 ResourceManager 的地址
1
2
3
4<property>
<name>yarn.resourcemanager.hostname</name>
<value>hadoop12</value>
</property>works 配置工作节点
1
2
3hadoop11
hadoop12
hadoop13文末给出本教程打包配置文件
配置 SSH 免密:
- ssh 文件夹下(~/.ssh)的文件功能解释
known_hosts | 记录 ssh 访问过计算机的公钥 (public key) |
---|---|
id_rsa | 生成的私钥 |
id_rsa.pub | 生成的公钥 |
authorized_keys | 存放授权过得无密登录服务器公钥 |
生成并发送密钥
先把所有主机 ~/.ssh/
下的文件都删掉,因为单节点当时配置过,当时只是为了能跑
1 | [hadoop@hadoop11 hadoop]$ ssh-keygen -t rsa |
集群启动
第一次启动 (不是第一次集群启动就跳过):
一定先停止所有的 Namenode 和 Datanode 服务 (JPS 查看,小心运行在 root 用户上)
如果有,删除所有集群上 data 与 log 下的文件
格式化 NameNode
hdfs namenode -format
HDFS 启动:hadoop11 下执行
start-dfs.sh
Yarn 启动:hadoop12 下执行
start-yarn.sh
JobHistoryServer:hadoop13 下执行
mapred --daemon start historyserver
至此,启动完毕,这里给出启动完成后各主机 JPS 进程情况
hadoop11 | hadoop12 | hadoop13 | |
---|---|---|---|
JPS | 3684 Jps 3141 DataNode 3019 NameNode 3452 NodeManager |
2900 ResourceManager 2727 DataNode 3031 NodeManager 3448 Jps |
2305 NodeManager 2100 DataNode 2184 SecondaryNameNode 2906 JobHistoryServer 3340 Jps |
集群可用性检查
http://hadoop11:9870/
跳转至 NameNode 管理页http://hadoop12:8088/cluster
跳转至 ResourceManager 管理页http://hadoop13:19888/
跳转至 JobHistory 管理页$ hdfs dfs -put 本地路径 hdfs路径
上传一些测试文件,建议一大 (>128MB) 一小- 在 9870 下查看文件储存情况,查看下 Block 分块情况
- 还可以跑下 wordcount~
关闭集群
关闭 jobHistoryServer:hadoop13 下
mapred --daemon stop historyserver
关闭 yarn:hadoop12 下
stop-yarn.sh
关闭 hdfs:hadoop11 下
1stop-dfs.sh
配置文件
这里给出一台虚拟机,从刚克隆到集群中配置过的各个文件
AllConfig.7z 如果有遗漏或是下载不了,可以下方留言给,第一时间就会更新~