IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 大数据 -> Hadoop集群部署 -> 正文阅读

[大数据]Hadoop集群部署

一、环境准备

(0)需要准备三台虚拟机,名称为Hadoop(102,103,104),ip地址为192.168.10.(102、103、104)。
(1)关闭虚拟机防火墙

[root@hadoop100 ~]# systemctl stop firewalld (关闭防火墙)
[root@hadoop100 ~]# systemctl disable firewalld.service (关闭防火墙开机自启)

注意:可以用 systemctl status firewalld 命令查看防火墙状态
(2)设置虚拟机ip

  1. 在VMware中设置如下内容
    在这里插入图片描述
    在这里插入图片描述
  2. 在windows中做如下设置
    在这里插入图片描述
    在这里插入图片描述
    右键属性
    在这里插入图片描述

点击属性配置如下
在这里插入图片描述
3. 虚拟机配置

将虚拟机ip改为静态ip

[root@hadoop100 ~]# vim /etc/sysconfig/network-scripts/ifcfg-ens33

在这里插入图片描述
(3)修改克隆机主机名并配置 Linux 克隆机主机名称映射 hosts 文件

[root@hadoop100 ~]# vim /etc/hostname
改为
hadoop102
[root@hadoop100 ~]# vim /etc/hosts
添加
192.168.10.102 hadoop102
192.168.10.103 hadoop103
192.168.10.104 hadoop104

(4)在/opt/目录下创建software和module两个目录

[root@hadoop100 ~]# mkdir /opt/module  #安装软件所用目录
[root@hadoop100 ~]# mkdir /opt/software #存放软件所用目录

(5)卸载现有 JDK

[root@hadoop100 ~]# rpm -qa | grep -i java | xargs -n1 rpm -e
--nodeps

? rpm -qa:查询所安装的所有 rpm 软件包
? grep -i:忽略大小写
? xargs -n1:表示每次只传递一个参数
? rpm -e –nodeps:强制卸载软件

(6)重启虚拟机

[root@hadoop100 ~]# reboot

(7) 克隆虚拟机haoop103,hadoop104
更改vim /etc/sysconfig/network-scripts/ifcfg-ens33中的ip地址,并更改主机名,然后重启

二、在hadoop102中安装jdk

(1)版本jdk1.8.0_181
(2)用 XShell 传输工具将 JDK 导入到 opt 目录下面的 software 文件夹下面
(3)解压 JDK 到/opt/module 目录下

[root@hadoop102 software]$ tar -zxvf jdk-8u181-linux-x64.tar.gz -C /opt/module/

(4)配置 JDK 环境变量

  1. 在/etc/profile.d/目录下创建my_env.sh
  2. 在my_env.sh中添加如下内容
#JAVA_HOME
export JAVA_HOME=/opt/module/jdk1.8.0_181
export PATH=$PATH:$JAVA_HOME/bin
  1. source 一下/etc/profile 文件,让新的环境变量 PATH 生效
[root@hadoop102 ~]$ source /etc/profile
  1. 测试 JDK 是否安装成功
[root@hadoop102 ~]$ java -version

如果能看到以下结果,则代表 Java 安装成功。
java version “1.8.0_212”

三、在 hadoop102 安装 Hadoop

安装hadoop

(1)版本hadoop-3.1.3
(2)用 XShell 文件传输工具将 hadoop-3.1.3.tar.gz 导入到 opt 目录下面的 software 文件夹下

(3)解压安装文件到/opt/module 下面

[atguigu@hadoop102 software]$ tar -zxvf hadoop-3.1.3.tar.gz -C /opt/module/

(4)将 Hadoop 添加到环境变量
(2)打开/etc/profile.d/my_env.sh 文件

  1. 在my_env.sh中添加如下内容
#HADOOP_HOME
export HADOOP_HOME=/opt/module/hadoop-3.1.3
export PATH=$PATH:$HADOOP_HOME/bin
export PATH=$PATH:$HADOOP_HOME/sbin
  1. source 一下/etc/profile 文件,让新的环境变量 PATH 生效
  2. 测试是否安装成功
[root@hadoop102 profile.d]# hadoop version
Hadoop 3.1.3

查看 Hadoop 目录结构

[root@hadoop102 hadoop-3.1.3]# ll
总用量 176
drwxr-xr-x. 2 zx zx 183 9月 12 2019 bin
drwxr-xr-x. 3 zx zx 20 9月 12 2019 etc
drwxr-xr-x. 2 zx zx 106 9月 12 2019 include
drwxr-xr-x. 3 zx zx 20 9月 12 2019 lib
drwxr-xr-x. 4 zx zx 288 9月 12 2019 libexec
-rw-rw-r–. 1 zx zx 147145 9月 4 2019 LICENSE.txt
-rw-rw-r–. 1 zx zx 21867 9月 4 2019 NOTICE.txt
-rw-rw-r–. 1 zx zx 1366 9月 4 2019 README.txt
drwxr-xr-x. 3 zx zx 4096 9月 12 2019 sbin
drwxr-xr-x. 4 zx zx 31 9月 12 2019 share

重要目录
(1)bin 目录:存放对 Hadoop 相关服务(hdfs,yarn,mapred)进行操作的脚本
(2)etc 目录:Hadoop 的配置文件目录,存放 Hadoop 的配置文件
(3)lib 目录:存放 Hadoop 的本地库(对数据进行压缩解压缩功能)
(4)sbin 目录:存放启动或停止 Hadoop 相关服务的脚本
(5)share 目录:存放 Hadoop 的依赖 jar 包、文档、和官方案例

四、编写集群分发脚本

  1. scp(secure copy)安全拷贝
    (1)scp 定义
    scp 可以实现服务器与服务器之间的数据拷贝。(from server1 to server2)
    (2)基本语法
scp -r   $pdir/$fname        $user@$host:$pdir/$fname
命令 递归 要拷贝的文件路径/名称  目的地用户@主机:目的地路径/名称

(3)案例实操
? 前提:在 hadoop102、hadoop103、hadoop104 都已经创建好的/opt/module、
/opt/software 两个目录,并且已经把这两个目录修改为 zx:zx

[zx@hadoop102 module]$ sudo chown  zx:zx -R /opt/module

(a)在 hadoop102 上,将 hadoop102 中/opt/module/jdk1.8.0_212 目录拷贝到
hadoop103 上。

[zx@hadoop102 module]$ scp -r /opt/module/jdk1.8.0_212/ zx@hadoop103:/opt/module

(b)在 hadoop103 上,将 hadoop102 中/opt/module/hadoop-3.1.3 目录拷贝到
hadoop103 上。
[atguigu@hadoop103 ~]$ scp -r
atguigu@hadoop102:/opt/module/hadoop-3.1.3 /opt/module/
(c)在 hadoop103 上操作,将 hadoop102 中/opt/module 目录下所有目录拷贝到
hadoop104 上。
[atguigu@hadoop103 opt]$ scp -r
atguigu@hadoop102:/opt/module/*
atguigu@hadoop104:/opt/module

  大数据 最新文章
实现Kafka至少消费一次
亚马逊云科技:还在苦于ETL?Zero ETL的时代
初探MapReduce
【SpringBoot框架篇】32.基于注解+redis实现
Elasticsearch:如何减少 Elasticsearch 集
Go redis操作
Redis面试题
专题五 Redis高并发场景
基于GBase8s和Calcite的多数据源查询
Redis——底层数据结构原理
上一篇文章      下一篇文章      查看所有文章
加:2022-02-28 15:36:32  更:2022-02-28 15:38:09 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 -2024/11/24 11:42:26-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码