IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 大数据 -> Spark3.0新特性-plugin源码详解与实战 -> 正文阅读

[大数据]Spark3.0新特性-plugin源码详解与实战

目录

@Author Jeffrey.miao
转载请标明出处:https://blog.csdn.net/The_Inertia/article/details/119839807

1.plugin介绍

2.plugin初始化

2.1 PluginContainer

2.2 rpc通信

2.3?SparkPlugin初始化

3.实战


1.plugin介绍

通过在submit作业时指定 --conf="spark.plugins=org.apache.spark.internal.plugin.TestSparkPlugin",加载自定义Plugin。

2.plugin初始化

2.1 PluginContainer

PluginContainer会在driver和executor中初始化:

driver中:

// org.apache.spark.SparkContext#_plugins 
_plugins = PluginContainer(this, _resources.asJava)

sparkcontext初始化时,会初始化一个PluginContainer(DriverPluginContainer),并传入sparkcontext的引用。

executor中:

// org.apache.spark.executor.Executor#plugins  
private val plugins: Option[PluginContainer] = Utils.withContextClassLoader(replClassLoader) {
    PluginContainer(env, resources.asJava)
  }

Executor初始化时,会初始化一个PluginContainer(ExecutorPluginContainer),并传入sparkenv的引用。

2.2 rpc通信

PluginContainer的实现比较简单,就是一些插件和环境的初始化,值得关注就是其中的rpc环境的初始化。driver端,会将所有的plugin注册成一个endpoint,注册到dispatcher中。该endpoint的name是PluginEndpoint类的全限定名。后续executor中的plugin会通过该endpointName与driver端的plugin通信。(目前只开放了executor-plugin到driver-plugin的通信)

// org.apache.spark.internal.plugin.DriverPluginContainer 
 if (driverPlugins.nonEmpty) {
    val pluginsByName = driverPlugins.map { case (name, plugin, _) => (name, plugin) }.toMap
    sc.env.rpcEnv.setupEndpoint(classOf[PluginEndpoint].getName(),
      new PluginEndpoint(pluginsByName, sc.env.rpcEnv))
  }

可惜的是,在ExecutorPluginContainer中并没有注册endpoint,而且rpcEnv也没有直接开放给用户,因此如果不通过反射,就难以实现driver-plugin到executor-plugin的通信。

2.3?SparkPlugin初始化

// org.apache.spark.internal.plugin.PluginContainer#apply  
private def apply(
      ctx: Either[SparkContext, SparkEnv],
      resources: java.util.Map[String, ResourceInformation]): Option[PluginContainer] = {
    val conf = ctx.fold(_.conf, _.conf)
    val plugins = Utils.loadExtensions(classOf[SparkPlugin], conf.get(PLUGINS).distinct, conf)
    if (plugins.nonEmpty) {
      ctx match {
        case Left(sc) => Some(new DriverPluginContainer(sc, resources, plugins))
        case Right(env) => Some(new ExecutorPluginContainer(env, resources, plugins))
      }
    } else {
      None
    }
  }

无论是driver还是executor端,PluginContainer初始化时,都会加载spark.plugins中配置的plugin类。通过org.apache.spark.util.Utils#loadExtensions方法加载plugin类,如果sparkplugin的构造器中的param是sparkconf,则会优先加载该构造器,否则加载空构造。注意,如果需要在plugin中获取sparkconf中的配置信息,需要声明相应的构造器!

3.实战

实现一个sparkplugin较为简单,只需要分别实现SparkPlugin接口,DriverPlugin接口,ExecutorPlugin接口。具体参考spark的测试类即可。

  大数据 最新文章
实现Kafka至少消费一次
亚马逊云科技:还在苦于ETL?Zero ETL的时代
初探MapReduce
【SpringBoot框架篇】32.基于注解+redis实现
Elasticsearch:如何减少 Elasticsearch 集
Go redis操作
Redis面试题
专题五 Redis高并发场景
基于GBase8s和Calcite的多数据源查询
Redis——底层数据结构原理
上一篇文章      下一篇文章      查看所有文章
加:2021-08-22 13:36:15  更:2021-08-22 13:37:17 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 -2024/11/23 13:25:57-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码