| |
|
开发:
C++知识库
Java知识库
JavaScript
Python
PHP知识库
人工智能
区块链
大数据
移动开发
嵌入式
开发工具
数据结构与算法
开发测试
游戏开发
网络协议
系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程 数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁 |
-> 大数据 -> 大数据处理实验(四)使用docker构建spark运行环境 -> 正文阅读 |
|
[大数据]大数据处理实验(四)使用docker构建spark运行环境 |
使用docker构建spark运行环境一、安装docker与docker-compose查询docker版本号。 在host上执行。
根据查询到的版本号,在下列网站找到对应的docker-compose版本。 https://github.com/docker/compose/releases 这里,我们使用最新的1.25.5版本。 执行下列命令,安装docker-compose。 docker-compose为单一可执行文件,将其放到/usr/local/bin中,给予文件执行权限即可使用。 当前使用的是1.25.5版本。
二、系统构架图使用docker hub查找我们需要的镜像。 三、docker compose部署文件进入文件
添加以下内容
四、使用yml部署文件部署spark环境在yml文件所在的目录下,执行命令:
检查docker在命令行的输出确认容器的部署顺利完成。
查看容器创建与运行状态
对输出进行格式化
使用浏览器查看master的web ui界面 进入spark-master容器
查询spark环境,安装在/spark下面。
进入spark-shell
进入浏览器查看spark-shell的状态 五、完成创建RDD与filter处理的实验创建一个RDD
打印rdd内容
查询分区数
选出大于5的数值
打印rddFilter内容
退出spark-shell
|
|
|
上一篇文章 下一篇文章 查看所有文章 |
|
开发:
C++知识库
Java知识库
JavaScript
Python
PHP知识库
人工智能
区块链
大数据
移动开发
嵌入式
开发工具
数据结构与算法
开发测试
游戏开发
网络协议
系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程 数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁 |
360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 | -2024/11/24 0:58:40- |
|
网站联系: qq:121756557 email:121756557@qq.com IT数码 |