| |
|
开发:
C++知识库
Java知识库
JavaScript
Python
PHP知识库
人工智能
区块链
大数据
移动开发
嵌入式
开发工具
数据结构与算法
开发测试
游戏开发
网络协议
系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程 数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁 |
-> 大数据 -> hadoop完全分布式搭建与集群测试 -> 正文阅读 |
|
[大数据]hadoop完全分布式搭建与集群测试 |
hadoop是本文章主要介绍hadoop完全分布式搭建过程。 Hadoop是一个由Apache基金会所开发的分布式系统基础架构,是完全开源的,是由java语言编写的。用户可以在不了解分布式底层细节的情况下,开发分布式程序。充分利用集群的威力进行高速运算和存储。Hadoop实现了一个分布式文件系统( Distributed File System),其中一个组件是HDFS(Hadoop Distributed File System)。Hadoop的框架最核心的设计就是:HDFS和MapReduce。HDFS为海量的数据提供了分布式存储,而MapReduce则为海量的数据提供了分布式计算 特别注意:hadoop是三台虚拟机之间实现资源调度,非常容易出错,初学者可以反复练习搭建(不成功不要气馁),搭建过程中一定要仔细,哪怕一个字符敲错就可能使得集群不能成功运行。 环境准备:宿主机内存最好16G及以上(可满足同时运行三台虚拟机) centos7虚拟机3台,使用单核单cpu,2G内存,最小安装方式。(尽可能节省资源) 可以选用vmware提供的虚拟机克隆功能,就可以创建一台虚拟机,克隆两台虚拟机。 利用vmware搭建虚拟机请查看以下连接,有详细的虚拟机创建过程。 一、前期配置(root用户进行):1、ssh免密配置以下为虚拟机名称以及IP地址规划
各节点更改主机名,每个节点配置上述规划的主机名(重启生效)
配置静态IP地址配置,每个节点配置上述规划的IP地址。
重启网络服务
查看网络是否配置生效?配置主机名与IP映射(三个节点都要配置)
验证连通性(三个节点分别验证) ? 生成秘钥(三个节点生成)
??秘钥拷贝(将三个节点的秘钥都拷贝到master中)(三个节点执行)
需要输入yes及master节点root用户密码 ?拷贝完成后,在master中检查是否拷贝成功(master执行)
?秘钥分发(master执行)
?免密登录验证(三个节点)
若不成功删除.ssh目录重新配置。rm -rf ~/.ssh 2、时间同步配置(三个节点)在线安装ntp
设置时间同步
验证
3、禁用防火墙(三个节点)
二、开始安装hadoop安装所需的软件包阿里盘连接阿里云盘分享https://www.aliyundrive.com/s/jCDudpAngXq ?本次实验在root用户下安装hadoop。安装路径规划
1.jdk环境安装与配置hadoop是由java语言编写的所以要提前安装java环境(三个节点检查)
本实验采用jdk1.8版本安装创建目录/root/package/、/root/soft/目录(三个节点)
?将本地的所需安装包通过xftp上传到master节点的/home/apache/package目录下(master)??解压jdk安装包(master执行)
解压成功后,切换到soft目录下,可以看到新增了一个jdk1.8.0_211的目录。为了配置方便可以将jdk目录改名为java(master执行)
配置环境变量(master执行)
将jdk分发给slave1和slave2。确保在slave1和slave2中已经新建目录/root/soft,然后在master终端中执行下面的两条命令将master的jdk安装文件分发给slave1和slave2。(master执行)
将环境变量分发给slave1,slave2(master执行)
?分发完毕使得立即生效(三个节点执行)
检查是否安装完毕(三个节点执行)?2、hadoop安装(以下操作除特殊标注,均为master节点执行)解压hadoop安装包并重命名。
配置文件修改(共6个)hadoop-env.sh hadoop-env.sh文件主要配置跟Hadoop环境相关的变量。
?core-site.xml core-site.xml是Hadoop的全局配置文件,主要配置Hadoop的公有属性。
hdfs-site.xml hdfs-site.xml文件主要配置和HDFS相关的属性。
mapred-site.xml mapred-site.xml是MapReduce的配置文件,默认情况下Hadoop中没有该文件,可通过执行cp? mapred-site.xml.template? mapred-site.xml复制一个,并进行编辑。为了使提交的MapReduce程序运行在分布式模式,而不是本地local模式,可以指定由Yarn作为MapReduce的程序运行框架。
yarn-site.xml yarn-site.xml文件主要配置YARN的一些信息。
slaves slaves文件主要根据集群规划配置DataNode节点所在的主机名,master节点通过该文件获得集群的子节点名称,然后再通过/etc/hosts文件得到各子节点对应的IP,从而与自己进行通信。
修改环境变量
将hadoop分发值slave1和slave2节点
将环境变量分发给slave1和slave2节点。
使得环境变量生效(三个节点)
3、hadoop启动格式化namenode,只能格式化一次,不能重复格式化(master节点)
在master的终端执行命令start-all.sh启动hadoop集群,该命令可由start-dfs.sh和start-yarn.sh代替,用于分别启动HDFS和YARN。首次启动hadoop时,会提示输入yes/no,输入yes,第二次及以后启动不会输入任何内容。(master)
检查集群启动情况,执行jps指令,若三个节点进程和如下一直,hadoop搭建成功(三个节点)
? Hadoop集群启动后,可以在浏览器中查看集群运行情况。 在浏览器中输入http://192.168.6.10:50070(或http://master:50070),可以查看HDFS文件系统上存储的目录和文件等信息,如图显示的是NameNode的信息。 三、测试hadoop集群(任意节点执行)1、运行Hadoop自带的MapReduce例子求pi
?2、运行Hadoop自带的WordCount程序(任意节点执行)首先,创建目录:mkdir? /home/apache/data/test,在这个目录下创建文件wctest.txt ?在HDFS文件系统中创建一个hdfstest目录 ? ? 将本地的wctest.txt文件上传到hdfstest目录中
运行Hadoop自带的WordCount程序
查看结果 ?以上测试都没有问题,表明hadoop集群搭建成功。 ?关闭集群? ? ? ? 在master的终端中输入命令用于关闭整个Hadoop集群,如果只是关闭HDFS,可使用stop-hdfs.sh命令。Hadoop集群关闭后,在各个主机上通过jps命令查看进程是否都正常关闭,如果还有僵尸进程存在,则使用kill命令将其杀死。(master)
|
|
|
上一篇文章 下一篇文章 查看所有文章 |
|
开发:
C++知识库
Java知识库
JavaScript
Python
PHP知识库
人工智能
区块链
大数据
移动开发
嵌入式
开发工具
数据结构与算法
开发测试
游戏开发
网络协议
系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程 数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁 |
360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 | -2024/11/23 13:48:05- |
|
网站联系: qq:121756557 email:121756557@qq.com IT数码 |