IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 大数据 -> 基于Ubuntu虚拟机的Spark简单集群搭建(二) -> 正文阅读

[大数据]基于Ubuntu虚拟机的Spark简单集群搭建(二)

前言

在之前的一篇文章中,我介绍了spark集群搭建的第一步,hadoop集群的搭建,在这篇文章中,我会继续讲解Spark集群的搭建过程。

OK,假设我们现在已经成功安装并且配置好了hadoop,接下来,我们开始正式进入Spark的安装过程。

1.Spark安装

首先我们需要在master节点上进行Spark的安装。我选择了2.0.2的版本,这里是下载链接。当然你也可以选择其他的版本,但是需要注意的是,如果你选择的Spark版本过高,可能导致无法与你的hadoop版本适配。

OK,完成下载后,进行如下的命令行操作,和hadoop安装时十分类似。

$ sudo tar -zxf ~/下载/spark-2.0.2-bin-without-hadoop.tgz -C /usr/local/ #解压到指定路径
$ cd /usr/local
$ sudo mv ./spark-2.0.2-bin-without-hadoop/ ./spark #重命名
$ sudo chown -R frank ./spark #修改权限

2.环境变量配置

同样在master机器上,打开bashrc文件进行环境变量配置。

$ vim ~/.bashrc

在文件中添加如下内容

export SPARK_HOME=/usr/local/spark
export PATH=$PATH:$SPARK_HOME/bin:$SPARK_HOME/sbin

并使其生效。

$ source ~/.bashrc

3.Spark集群配置

进入到/usr/local/spark的conf路径下,进行以下文件的配置。

a)slaves文件

但是由于其开始并没有这个文件,而只有slaves.template文件,所以我们需要先拷贝重命名一下。

$ cd /usr/local/spark/conf/
$ cp ./slaves.template ./slaves

然后打开这个slaves文件,并将默认的localhos替换为slave(工作节点的主机名),因为我只有一台名为slave的工作机器,因此如下。

slave

b)spark-env.sh文件

同样的,我们需要先将template文件拷贝重命名。

$ cp ./spark-env.sh.template ./spark-env.sh

然后在文件中添加如下内容

export SPARK_DIST_CLASSPATH=$(/usr/local/hadoop/bin/hadoop classpath)
export HADOOP_CONF_DIR=/usr/local/hadoop/etc/hadoop
export SPARK_MASTER_IP=192.168.56.9 #主节点的ip

4.复制到各个从节点

在master机器上进行如下操作。

$ cd /usr/local/
$ tar -zcf ~/spark.master.tar.gz ./spark
$ cd ~
$ scp ./spark.master.tar.gz slave:/home/frank #将frank 替换为你的用户名

然后进入slave节点中,在终端输入如下指令,安装spark。

$ sudo tar -zxf ~/spark.master.tar.gz -C /usr/local
$ sudo chown -R frank /usr/local/spark

5.运行Spark

因为我们的Spark是基于hadoop来运行的,因此我们首先需要将hadoop启动起来。

在master机器上运行如下指令启动hadoop

$ cd /usr/local/hadoop/
$ sbin/start-all.sh

然后我们再再master机器上启动Spark的master进程。

$ cd /usr/local/spark/
$ sbin/start-master.sh

使用jps命令查看master机器上的进程情况,结果如下。

我们发现,除了hadoop的相关进程之外,还多了一个Master进程,证明master节点已经成功启动。

然后我们同样在master机器上再启动worker进程。

$ sbin/start-slaves.sh

然后我们进入我们的slave机器,通过查看jps,结果如下。

?我们发现,同样的除了hadoop的相关进程,多出来一个Worker进程,证明worker节点也已经成功启动。

OKK,到此为止,关于spark集群的整个搭建过程就差不多结束了,感谢大家的阅读。

参考:

Spark 2.0分布式集群环境搭建

  大数据 最新文章
实现Kafka至少消费一次
亚马逊云科技:还在苦于ETL?Zero ETL的时代
初探MapReduce
【SpringBoot框架篇】32.基于注解+redis实现
Elasticsearch:如何减少 Elasticsearch 集
Go redis操作
Redis面试题
专题五 Redis高并发场景
基于GBase8s和Calcite的多数据源查询
Redis——底层数据结构原理
上一篇文章      下一篇文章      查看所有文章
加:2021-08-02 20:49:51  更:2021-08-02 20:49:53 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年5日历 -2024/5/22 2:03:03-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码