IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 大数据 -> spark安装-3台虚拟机 -> 正文阅读

[大数据]spark安装-3台虚拟机

1.上传tar包

spark-2.4.3-bin-hadoop2.7.tgz

2.解压tar包
tar -zxvf spark-2.4.3-bin-hadoop2.7.tgz
3.修改文件名
mv spark-2.4.3-bin-hadoop2.7 spark
4.配置环境变量

进入/etc/profile

sudo vim /etc/profile

添加以下内容

#SPARK_HOME
#自己的路径
export SPARK_HOME=/data/spark/spark
export PATH=$PATH:$SPARK_HOME/bin
export PATH=$PATH:$SPARK_HOME/sbin

使配置环境生效

source /etc/profile
5.进入spark的conf文件
cd /data/spark/spark/conf/
6.修改配置文件 spark-env.sh

拷贝spark-env.sh.template 为spark-env.sh

cp spark-env.sh.template spark-env.sh

拷贝进入spark-env.sh

vim spark-env.sh

添加以下内容

# 配置一下主服务器;端口号木有配置,默认是7077,在standby上告诉mastre是自己,我的standby是bigdata102,所以在bigdata102的配置文件中下面的bigdata103改成bigdata102
#配置大哥
export SPARK_MASTER_HOST=bigdata103

# 设置zookeepr
SPARK_DAEMON_JAVA_OPTS="-Dspark.deploy.recoveryMode=ZOOKEEPER -Dspark.deploy.zookeeper.url=bigdata101:2181,bigdata102:2181,bigdata103:2181 -Dspark.deploy.zookeeper.dir=/spark"
7.配置slaves

进入 slaves

vim slaves

添加以下内容

# 配置的从节点
bigdata101
bigdata102
bigdata103
8.分发到各个服务器
sudo scp -r conf/ bigdata102:`pwd`
sudo scp -r conf/ bigdata10:`pwd`
9.在bigdata102中修改以下内容

拷贝进入spark-env.sh

vim spark-env.sh

修改export SPARK_MASTER_HOST

# 配置一下主服务器;端口号木有配置,默认是7077,在standby上告诉mastre是自己,我的standby是bigdata102,所以在bigdata102的配置文件中下面的bigdata103改成bigdata102
#配置二哥
export SPARK_MASTER_HOST=bigdata102

# 设置zookeepr
SPARK_DAEMON_JAVA_OPTS="-Dspark.deploy.recoveryMode=ZOOKEEPER -Dspark.deploy.zookeeper.url=bigdata101:2181,bigdata102:2181,bigdata103:2181 -Dspark.deploy.zookeeper.dir=/spark"
10.修改用户名和用户组
sudo chown -R hadoop:hadoop spark

先启动zookeeper集群

bin/zkServer.sh start
11.在bigdata103上执行一下master命令
#启动spark集群
sbin/start-all.sh

#关闭spark集群
sbin/stop-all.sh

#启动master
sbin/start-master.sh

#启动master
sbin/stop-master.sh
12.查看端口号
  大数据 最新文章
实现Kafka至少消费一次
亚马逊云科技:还在苦于ETL?Zero ETL的时代
初探MapReduce
【SpringBoot框架篇】32.基于注解+redis实现
Elasticsearch:如何减少 Elasticsearch 集
Go redis操作
Redis面试题
专题五 Redis高并发场景
基于GBase8s和Calcite的多数据源查询
Redis——底层数据结构原理
上一篇文章      下一篇文章      查看所有文章
加:2021-07-17 11:59:21  更:2021-07-17 12:00:04 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 -2024/11/22 23:58:16-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码