准备资源三台虚拟机

1准备3服务器关闭防火墙静态IP主机名

2安装JDK

3配置环境变量

4安装Hadoop

5配置环境变量

安装虚拟机(略)–1台即可执行完毕下述内容,再克隆2台。

虚拟准备完毕,开始安装——

1-通过yum安装epelrelease

[root@kk ~]# yum instally epelrelease

注意:如果Linux安装的是最小系统,还需要安装如下工具;如果安装的是Linux桌面标准,不需要执行如下操作

Ø nettool工具包集合包含ifconfig命令,vim编辑器

[root@kk ~]# yum instally nettools

[root@kk ~]#yum install –y vim 

2-关闭防火墙关闭防火墙开机自启

 [root@kk ~]# systemctl stop firewalld

[root@kk ~]# systemctl disable firewalld.service

3-创建other用户,并修改other用户密码

 [root@kk ~]# useradd others

[root@kk ~]# passwd others

4-配置others用户具有root权限,方便后期加sudo执行root权限命令

[root@kk ~]# vim /etc/sudoers

修改/etc/sudoers文件,在%wheel这行下面添加一行,如下所示

%wheel  ALL=(ALL)       ALL

others   ALL=(ALL)     NOPASSWD:ALL

5-在/opt目录创建文件夹,并修改所属主和所属组

(1)在/opt目录下创建modulesoftware文件夹

[root@kk ~]# mkdir /opt/{module,sofeware}

(2)修改modulesoftware文件夹所有者和所属组均为others用户

[root@kk ~]# chown others:others /opt/module

[root@kk ~]# chown others:others /opt/software

(3)查看modulesoftware文件夹所有者和所属组

[root@kk ~]# cd /opt/

[root@kk opt]# ll

 6-卸载虚拟自带JDK 

注意:如果你的虚拟机是最小化安装不需要执行这一步

[root@kk ~]# rpmqa | grepi java | xargs -n1 rpm -e —nodeps

Ø rpmqa查询所安装的所有rpm软件包

Ø grepi忽略大小写

Ø xargs -n1表示每次只传递一个参数

Ø rpm -e –nodeps强制卸载软件

7-重启虚拟机

[root@kk ~]# reboot

 8-使用固定IP

1)查看自己主机的IP地址网段和DNS–这一步自己电脑网络属性查看即可

2)修改静态的IP地址

[root@kk ~]# vim /etc/sysconfig/networkscripts/ifcfg-ens33

改成

BOOTPROTO=static

IPADDR=192.168.193.170

GATEWAY=192.168.193.2

DNS1=192.168.193.2

DNS2=8.8.8.8

另外两台的IP地址也如此修改 分别为:192.168.193.176192.168.193.177

每个人的都不同,自己设置即可

9-修改主机名,以下以kk 为例子

[root@kk ~]# vim /etc/hostname

hadoop1

配置Linux主机名映射hosts文件打开/etc/hosts

[root@hadoop~]# vim /etc/hosts

192.168.193.170 hadoop1

192.168.193.176 hadoop2

192.168.193.177 hadoop3

重启 hadoop1

[root@kk ~]# reboot

10-JDK和hadoop 3.3.5 导入opt目录下面的software文件夹下面

JDK需要到oracle 官方下载

Java Downloads | Oracle

这里本人下载了 (jdk-8u391-linuxx64.tar.gz

hadoop3.3.5 版本比较稳定,也到官方下载

https://dlcdn.apache.org/hadoop/common/hadoop-3.3.5/hadoop-3.3.5.tar.gz

查看软件包下面已经上传好的软件包

[root@hadoopsoftware]$ ls
hadoop-3.3.5.tar.gz  jdk-8u391-linuxx64.tar.gz

11-切换为配置的others 用户来做其他的操作

[root@hadoopsoftware]$ su others

[others@hadoopsoftware]$ tar -zxvf jdk-8u391-linuxx64.tar.gz  -C /opt/module

[others@hadoop1 software]$ tar -zxvf hadoop-3.3.5.tar.gz  -C /opt/module

12-配置环境变量

[others@hadoop1 hadoop-3.3.5]$ sudo vim /etc/profile.d/my_env.sh

#JAVA_HOME

  export JAVA_HOME=/opt/module/jdk1.8.0_371

  export PATH=$PATH:$JAVA_HOME/bin

#HADOOP_HOME

export HADOOP_HOME=/opt/module/hadoop-3.3.5

export PATH=$PATH:$HADOOP_HOME/bin

export PATH=$PATH:$HADOOP_HOME/sbin

配置完毕,需要进行source ,之后配置文件才会生效

[others@hadoop1 hadoop-3.3.5]$ source /etc/profile

若还有问题,直接进行下重启-[others@hadoop1 hadoop-3.3.5]$ sudo reboot

之后进入系统查询 javaversion  和  hadoop version

可用后表示已经成功配置。

13-hadoop 文件夹重要目录说明 

[others@hadoop2 hadoop-3.3.5]$ ll
total 116
drwxr-xr-x. 2 others others 4096 Mar 16  2023 bin
drwxr-xr-x. 3 others others4096 Mar 15  2023 etc
drwxr-xr-x. 2  others others 4096 Mar 16  2023 include
drwxr-xr-x. 3 others others 4096 Mar 16  2023 lib
drwxr-xr-x. 4 others others   4096 Mar 16  2023 libexec
-rw-rw-r--. 1 others others 24496 Feb 25  2023 LICENSE-binary
drwxr-xr-x. 2 others others   4096 Mar 16  2023 licenses-binary
-rw-rw-r--. 1 others others 15217 Jul 17  2022 LICENSE.txt
-rw-rw-r--. 1 others others 29473 Jul 17  2022 NOTICE-binary
-rw-rw-r--. 1 others  others 1541 Apr 22  2022 NOTICE.txt
-rw-rw-r--. 1 others  others 175 Apr 22  2022 README.txt
drwxr-xr-x. 3 others others 4096 Mar 15  2023 sbin
drwxr-xr-x. 4 others others 4096 Mar 16  2023 share
drwxrwxr-x. 2 others  others 4096 Dec  1 14:24 wcinput

1bin目录:存放Hadoop相关服务hdfsyarnmapred)进行操作脚本

2etc目录:Hadoop配置文件目录,存放Hadoop配置文件

3lib目录:存放Hadoop本地库(对数据进行压缩压缩功能

4sbin目录:存放启动或停止Hadoop相关服务脚本

5share目录:存放Hadoop依赖jar文档官方案例

 Hadoop官方网站https://hadoop.apache.org/

https://hadoop.apache.org/docs/r3.3.5/hadoop-projectdist/hadoop-common/SingleCluster.html

2Hadoop运行式包括:本地模式分布式模式以及完全分布式模式

Ø 本地模式:单机运行,只是用来演示一下官方案例生产环境不用。

Ø 分布式模式也是单机运行,但是具备Hadoop集群的所有功能一台服务器模拟一个分布式环境个别缺钱的公司用来测试,生产环境不用。

Ø 完全分布式模式多台服务器成分布式环境生产环境使用

 14-克隆已经部署好的这台资源,修改克隆机的hostname即可

[root@hadoop1 ~]# vim /etc/hostname

hadoop2

另外一台修改为 hadoop3 即可

以上就是hadoop 的部署

原文地址:https://blog.csdn.net/Snower_2022/article/details/134734132

本文来自互联网用户投稿,该文观点仅代表作者本人,不代表本站立场。本站仅提供信息存储空间服务,不拥有所有权,不承担相关法律责任

如若转载,请注明出处:http://www.7code.cn/show_22314.html

如若内容造成侵权/违法违规/事实不符,请联系代码007邮箱:suwngjj01@126.com进行投诉反馈,一经查实,立即删除

发表回复

您的邮箱地址不会被公开。 必填项已用 * 标注