IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 大数据 -> 【工作札记】SparkSession 什么时候需要用close/stop方法? -> 正文阅读

[大数据]【工作札记】SparkSession 什么时候需要用close/stop方法?

1 问题发现

以下两段代码之间的区别是什么?

  • Example1 用了 spark.close
  • Example2 没用 spark.close
object Example1 {
    def main(args: Array[String]): Unit = {
        try {
            val spark = SparkSession.builder.getOrCreate
            // spark code here
        } finally {
            spark.close
        }
    }
}

object Example2 {
    val spark = SparkSession.builder.getOrCreate
    def main(args: Array[String]): Unit = {
        // spark code here
    }
} 

2 参考答案

两段都一样。Spark会话的stop / close最终称为 spark上下文的stop

def stop(): Unit = {
  sparkContext.stop()
}

override def close(): Unit = stop()

Spark上下文已运行时间shutdown hook,以在退出JVM之前关闭spark上下文。

ShutdownHookManager.addShutdownHook(
  _shutdownHookRef = ShutdownHookManager.SPARK_CONTEXT_SHUTDOWN_PRIORITY) { () =>
  logInfo("Invoking stop() from shutdown hook")
  stop()
}

因此,无论JVM如何退出,都将调用它如果手动stop(),此关闭挂钩将被取消以避免重复

def stop(): Unit = {
  if (LiveListenerBus.withinListenerThread.value) {
    throw new SparkException(
      s"Cannot stop SparkContext within listener thread of ${LiveListenerBus.name}")
  }
  // Use the stopping variable to ensure no contention for the stop scenario.
  // Still track the stopped variable for use elsewhere in the code.
  if (!stopped.compareAndSet(false, true)) {
    logInfo("SparkContext already stopped.")
    return
  }
  if (_shutdownHookRef != null) {
    ShutdownHookManager.removeShutdownHook(_shutdownHookRef)
  }

更多原理の补充说明:

当完成SparkSession的使用时,始终关闭SparkSession会触发释放可能提供给其他应用程序的群集资源。SparkSession是一个会话,因此维护一些消耗JVM内存的资源。

我们可以拥有任意数量的SparkSession,但如果不使用内存,就不希望它们使用了不应该使用的内存,所以我们就要close一个我们不再需要的。

SparkSession是Spark SQL围绕Spark Core SparkContext的包装器,因此在任何Spark应用程序中,我们都会被分配到群集资源,即vcores和内存。也就说是,只要SparkContext正在使用,集群资源就不会分配给其他任务(不一定是Spark,也适用于提交给集群的其他非Spark应用程序 )。

这些群集资源是你的,直到你说“我干完了”,这转化为 SparkSession

但是,如果在close之后只需退出Spark应用程序,就不必考虑执行close因为无论如何都会自动关闭资源。驱动程序和执行程序的JVM终止,集群的(心跳)连接也终止,因此最终将资源返回给集群管理器,以便它可以提供给其他应用程序使用。

  大数据 最新文章
实现Kafka至少消费一次
亚马逊云科技:还在苦于ETL?Zero ETL的时代
初探MapReduce
【SpringBoot框架篇】32.基于注解+redis实现
Elasticsearch:如何减少 Elasticsearch 集
Go redis操作
Redis面试题
专题五 Redis高并发场景
基于GBase8s和Calcite的多数据源查询
Redis——底层数据结构原理
上一篇文章      下一篇文章      查看所有文章
加:2021-09-02 11:26:45  更:2021-09-02 11:29:31 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 -2024/11/23 17:02:00-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码