IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 大数据 -> [Spark] 循环,合并,如何提速?——初学者Naive方法 -> 正文阅读

[大数据][Spark] 循环,合并,如何提速?——初学者Naive方法

一些时候,我们在for循环中使用Spark函数,同时想对每个loop的结果进行合并,或许是左右合并,或许是上下合并。

例如,一个naive的图画,

当然,上面的例子需要保证2者有共同的列,下面需要保证列的数量、内容相同。

基本操作:

// 左右拼接

C = A.join(B, based_on_col="XXX")

// 上下拼接

C = A.union(B)

?可是,我在很多时候发现,此种代码很多情况下奇慢无比???

说好的Spark处理大数据呢???骗我吗???

经过我多番搜寻,各路大神给出了很多设置Spark Configurations的方法,可能是我的电脑的问题,或者是我的问题,发现既复杂又没啥用。

于是,我不知道怎么回事的发现了一个函数,cache()

就真的提速了无比多....

对于一些小型的应用,也不太需要考虑底层的,反正快就是了。

for ........ {
    A = A.cache()
    B = B.cache()
    C = A.join(B).cache()
}


for ........ {
    A = A.cache()
    B = B.cache()
    C = A.union(B).cache()
}

这就是一个Naive的方法。

  大数据 最新文章
实现Kafka至少消费一次
亚马逊云科技:还在苦于ETL?Zero ETL的时代
初探MapReduce
【SpringBoot框架篇】32.基于注解+redis实现
Elasticsearch:如何减少 Elasticsearch 集
Go redis操作
Redis面试题
专题五 Redis高并发场景
基于GBase8s和Calcite的多数据源查询
Redis——底层数据结构原理
上一篇文章      下一篇文章      查看所有文章
加:2021-07-22 14:16:32  更:2021-07-22 14:17:14 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 -2024/11/22 23:37:03-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码