| |
|
开发:
C++知识库
Java知识库
JavaScript
Python
PHP知识库
人工智能
区块链
大数据
移动开发
嵌入式
开发工具
数据结构与算法
开发测试
游戏开发
网络协议
系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程 数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁 |
-> 大数据 -> 搭建Spark开发环境(第二弹) -> 正文阅读 |
|
[大数据]搭建Spark开发环境(第二弹) |
一.环境准备配置环境:Hadoop、spark(本人是2.0.0)、JDK(1.8)、Linux(Centos6.7) 二·.spark的部署方式spark部署模式分为Local模式和集群模式,在local模式,常用于本地开发与测试,集群模式又分为standalone模式(集群单机模式)、Yarn模式、mesos模式 三.spark集群安装部署1下载spark安装包. 下载spark安装包 在Apache spark官网下载网址:Downloads | Apache Spark (最新且稳定的版本是3.2.1,本人安装版本为2.0.0) 2.解压spark安装包 步骤1? 先 alt+P,再拉spark-2.3.2-bin-hadoop2.7.tgz上传/opt/software目录下 回到master切换hadoop用户 $su Hadoop $ cd /opt/software $ls $ tar -zxvf spark-2.3.2-bin-hadoop2.7.tgz -C /opt/module/ 3.修改配置文件 步骤1 使用mv命令将spark-2.3.2-bin-hadoop2.7重名为spark $cd /opt/module $ mv spark-2.3.2-bin-hadoop2.7/ spark 步骤2 先进入/opt/module/spark/conf/目录,将spark-env.sh.template复制给spark-env.sh $ cd /spark/conf $ ls $ cp spark-env.sh.template spark-env.sh $vi spark-env.sh # Java环境变量 export JAVA_HOME=/opt/module/jdk1.8.0_144 # 指定master的 IP export SPARK_MASTER_HOST=master # 指定master的 端口 export SPARK_MASTER_PORT=7077 步骤4 复制slaves.template slaves 并重命名slaves cp slaves.template slaves 步骤5 使用vi slaves命令编辑slaves配置文件,指定从节点IP $vi slaves Slave1 Slave2 4.分发文件 $scp -r /opt/module/spark/ slave1:/opt/module/ $ scp -r /opt/module/spark/ slave2:/opt/module/ 5 启动spark集群 cd ..(回到spark目录) 步骤2?? 先使用ssh命令切到slave1、slave2,使用jps查看各节点进程,主节点有master,从节点有worker 步骤3? 访问spark管理界面(master) http://192.168.196.101:8080,如图: 看到该状态 |
|
|
上一篇文章 下一篇文章 查看所有文章 |
|
开发:
C++知识库
Java知识库
JavaScript
Python
PHP知识库
人工智能
区块链
大数据
移动开发
嵌入式
开发工具
数据结构与算法
开发测试
游戏开发
网络协议
系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程 数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁 |
360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 | -2024/11/23 13:12:22- |
|
网站联系: qq:121756557 email:121756557@qq.com IT数码 |