hadoop部署模式安装步骤流程:
一、单节点部署
基础知识:
熟悉虚拟机(virtualbox/vmware)
熟悉Linux基本命令(下载文件,使用vi/vim编辑文件,创建文件和创建目录)
准备工作:
在虚拟机中安装好Linux(centos7)
使用桥接模式配好网络
安装步骤:
1、在虚拟机中安装Centos7
2、安装ssh
3、安装rsync。
4、安装openJDK
5、确认jdk版本
6、下载Hadoop的安装包
7、解压Hadoop
8、在Hadoop的配置文件(etc/hadoop/hadoop-env.sh)中增加环境变量JAVA_HOME
9、验证配置
10、运行MapReduce任务
二、伪分布式部署
安装步骤:
1、SSH免密码登录安装ssh
1)产生公钥和私钥
2)将公钥放到目标机器的~/.ssh/authorized_keys中
3)验证
2、修改配置文件
core-site.xml、hdfs-site.xml
3、格式化NameNode
4、启动NameNode和DataNode的守护进程
5、通过web检查dfs状态
6、验证dfs是否正常工作
7、配置YARN
三、集群部署


1、准备工作
1)准备6台Linux服务器
2)分别配置6台机器的名字为m1~m6,并指定静态IP地址
3)所有机器配置本地机器名解析
4)所有机器之间配置ssh免密码登录
5)关闭防火墙
6)下载Hadoop安装包,并解压到适当的位置
7)所有机器上使用相同版本的jdk和Hadoop版本,并且保证Hadoop的目录在相同的位置
2、准备工作的验证
1)验证本地机器名解析正常
2)验证ssh免密码配置成功
3)在每台机器上运行java -version检查jdk版本
4)在每台机器上检查防火墙状态
3、配置Hadoop参数
1)配置etc/hadoop/hadoop-env.sh
2)配置core-site.xml
3)配置etc/hadoop/hdfs-site.xml
4)配置etc/hadoop/mapred-site.xml
5)配置etc/hadoop/yarn-site.xml
6)配置etc/hadoop/slaves
7)分发配置文件。
4、启动集群
1)格式化NameNode
2)启动NameNode
3)启动DataNode
4)启动全部dfs进程
5)启动ResourceManager
6)启动NodeManager
7)启动JobHistory Server
8)用浏览器检查web接口工作是否正常
9)关闭集群











备案: