| |
|
开发:
C++知识库
Java知识库
JavaScript
Python
PHP知识库
人工智能
区块链
大数据
移动开发
嵌入式
开发工具
数据结构与算法
开发测试
游戏开发
网络协议
系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程 数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁 |
-> 大数据 -> Spark读取kafka复杂嵌套json的最佳实践,与其在大数据分析平台中的应用 -> 正文阅读 |
|
[大数据]Spark读取kafka复杂嵌套json的最佳实践,与其在大数据分析平台中的应用 |
随着互联网的更进一步发展,信息浏览、搜索以及电子商务、互联网旅游生活产品等将生活中的流通环节在线化,对于实时性的要求进一步提升,而信息的交互和沟通正在从点对点往信息链甚至信息网的方向发展,这样必然带来数据各个维度的交叉关联,数据爆炸也不可避免,因此流式处理应运而生,解决实时框架问题,助力大数据分析。 kafka是一个高性能的流式消息队列,适用于大数据场景下的消息传输、消息处理和消息存储,kafka可靠的传递能力让它成为流式处理系统完美的数据来源,很多基于kafka构建的流式处理系统都将kafka作为唯一可靠的数据来源。如Apache Storm、 Apache Spark Streaming 、Apache Flink 、Apache Samza 等。 json是kafka消息中比较常见的格式,对于单层json数据的读取和解析相对简单,但是在真实kafka流程处理的业务中,很多情况下都是json嵌套复杂格式消息。Spark1.1以后的版本存在一些实用的 SparkSQL函数,帮助解决复杂的json数据格式,实用函数包括get_json_object、from_json和explode等。 01、Spark框架中的基本概念和内置函数 ? RDD:Spark的基本计算单元,它是一个弹性可复原的分布式数据集。 ? Dataframe:定义为指定到列的数据集(Dataset)。DFS类似于关系型数据库中的表或者像R/Python 中的Dataframe ,可以说是一个具有良好优化技术的关系表。 ? Spark SQL:它是Spark的其中一个模块,用于结构化数据处理,Spark SQL提供的接口为Spark提供了有关数据结构和正在执行的计算的更多信息,Spark SQL会使用这些额外的信息来执行额外的优化。 ? from_json:Spark SQL内置的函数,从一个json 字符串中按照指定的schema格式抽取出来作为DataFrame的列,第一个参数为列名,以$"column_name"表示,第二个参数为定义的数据结构 ? get_json_object:Spark SQL内置的函数,从一个json字符串中根据指定的json路径抽取一个json对象,第一个参数为column名,用 " c o l u m n n a m e " 表示,第二个参数为要取的 j s o n 字段名, " "column_name"表示,第二个参数为要取的json字段名," "columnn?ame"表示,第二个参数为要取的json字段名,".字段名"表示。 ? explode:Spark SQL内置的函数,可以从规定的Array或者Map中使用每一个元素创建一列,主要用于数组数据的展开,参数为column名,用$"column_name"表示。 02、Kafka复杂嵌套json解析 1)什么是复杂json? json是一种轻量级的数据交换标准,具体以逗号分隔的key:value键值对的串形式,主要表现形式包括两种:{对象},[数组],其中key以字符串表达,value包括字符串、数值、boolean值、对象和数组(可嵌套)。在复杂的json数据格式中,通常json数据会有嵌套,每个层级的结构不完全相同,value中不同类型进行混合使用。 下图为一份简单json格式数据: 期望处理的结果为下图的二维表,json串中的key(id,sepallength,sepalwidth, petallength,petalwidth,label)作为二维表的列,value作为表的一行数据。 下图为一份复杂json格式数据: 期望处理的结果为下图的二维表,json串中单层key(id,createTime,deviceCode)和需要展开的数组trajectory中单个元素key(x,y)作为二维表的列,value是将数组trajectory中所有的元素展开成多行后,与其他列的数据进行对齐。 2)整体思路 Kafka消费者收到复杂嵌套json消息后,一共有两步。 第一步:首先把这批json字符消息转换成分布式数据集RDD[String]中,再将RDD[String]转换成列名为 第二步:获取需要展开的列 基于spark解析复杂json流程设计图: 3)Spark读取kafka复杂json消息解析核心代码 json格式数据如果使用现有的工具,用户常常需要开发出复杂的程序来读写分析系统中的json数据,Spark SQL对json数据的支持是从1.1版本开始发布,并且在Spark 1.2版本中进行了加强。 下图的代码是通过Spark SQL内置的json函数将复杂json转换成一张二维表,并支持将json中数组数据进行展开处理。 4)kafka复杂json解析在Tempo AI中的应用 Tempo AI机器学习平台将kafka数据作为数据挖掘分析标准数据源,既支持简单的json解析,也支持复杂json解析,先进行基础配置读取消息数据,查看消息内容,然后进行映射配置,将数据内容与对应元信息进行匹配,最后可以预览数据内容。 基础配置,包括连接配置和消息信息配置,如下图所示: 在“消息内容”页面,查看提取的单条Kafka消息内容,如下图: 在“映射配置”页面,根据左侧预览的消息内容,通过点击选择左侧的消息到右侧,进行映射配置,可以设置需要展开的数组,如下图: kafka输入节点配置完成后,执行AI流程,查看洞察信息,如下图所示: 综上,json是一种轻量级的数据交换格式,易于阅读和编写,目前是一种主流的数据格式,json字符串作为消息在kafka消息流中传递应用很广泛,通过Tempo 机器学习平台封装的Spark SQL解析复杂json的能力,极大简化了使用json数据的终端的相关工作,使客户更专注于自己的业务。 |
|
|
上一篇文章 下一篇文章 查看所有文章 |
|
开发:
C++知识库
Java知识库
JavaScript
Python
PHP知识库
人工智能
区块链
大数据
移动开发
嵌入式
开发工具
数据结构与算法
开发测试
游戏开发
网络协议
系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程 数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁 |
360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 | -2024/11/23 10:07:50- |
|
网站联系: qq:121756557 email:121756557@qq.com IT数码 |