IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 大数据 -> 《Spark 先知先觉》如何将DataFrame 的内容保存到同一个或多个文件。 -> 正文阅读

[大数据]《Spark 先知先觉》如何将DataFrame 的内容保存到同一个或多个文件。

数据源API结构

Read API 结构

读取数据的核心结构如下:

DataFrameReader.format(...).option("key","value").schema(...).load()

使用此格式可以读取所有数据源,format 是可选的,默认情况下 Spark 将使用 Parquet 格式,option 能配置键值对(key-value) 来参数化读取数据的方法。最后,如果数据源包含某种 Schema 或者你想使用模式推理(Schema inference),则可以选择指定 schema 。

数据读取基础

Spark 数据读取使用DataFrameReader,通过 SparkSession 的 read 属性得到:spark.read
有了DataFrame reader 之后,还需要指定几个值:

  • format
  • schema
  • read模式
  • 一些列option选项
    format,option 和Schema 都会返回一个DataFrameReader,它可以进一步的转换,并且都是可选的(那些仅有唯一可选项的就只能选择唯一的可选项)。每个数据源都有一组特定的选项,用于设置如何将数据读入Spark 。至少需要为DataFrameReader 提供一个读取路径
    下面是一个整体结构的例子:
spark.read.format("csv")
  .option("header", "true")
  .option("mode", "FAILFAST")
  .option("inferSchema", "true")
  .schema(someSchema)
  .load(inputPath)

spark 的读取模式:

读取模式说明
permissive当遇到错误格式的记录是,将所有字段设置为null并将所有错误格式的记录放在名为_corrupt_record 字符串列中
dropMalformed删除包含错误格式记录的行
failFast遇到错误格式的记录后立即返回失败

默认是permissive

Write API 结构

写数据的核心结构如下:

DataFrameWriter.format(...).option(...).partitionBy(...).bucketBy(...).sortBy(...).save()

使用此格式可以向所有数据源写入数据。format 是可选的,默认情况下是Spark 使用Parquet 格式,option 任用于配置写出数据的方法,partitionBy,bucketBy,sortBy 仅适用于基于文件的数据源,可以使用这些方法来控制写出目标文件的具体结构。

写数据基础

写数据与读取数据非常相似,不同的是,需要用到的是DataFrameWriter 而不是DataFrameReader ,因为总是需要将数据写入一些给定数据源中,所以通过每个DataFrame的writer 属性来获得DataFrameWriter,有了DataFrameWriter 之后。我们需要指定三个值:format、一系列option 选项和save 模式,并且必须至少提供一条写入路径(来制定目标地址)
下面是一个整体结构的例子:

dataframe.write.format("csv")
  .option("mode", "OVERWRITE")
  .option("dateFormat", "yyyy-MM-dd")
  .option("path", "path/to/file(s)")
  .save()

Spark 的保存模式

保存模式说明
append将输出文件追加到目标路径已存在的文件上或目录的文件列表
overwrite将完全覆盖目标路径中已存在的任何数据
errorIfExists如果目标路径已存在数据或文件,则抛出错误并返回写入操作失败
ignore如果目标路径已存在数据或文件,则不执行任何操作

默认情况是 :errorIfExists

并行写数据(重点)

写数据涉及的文件数量取决于DataFrame 的分区数。默认情况是每个数据分片都会有一定的数据写入,这意味着虽然我们指定大的是一个“文件”,但实际上它是由一个文件夹的多个文件组成,每个文件对应着一个数据分片。
例子:**将DataFrame 中数据保存到单个文件中 **
方法1:

    csvFile.repartition(1).write.format("csv").save(outputPath) //并行写数据,这里通过设置分区数量,来改变输出文件的数量。

方法2:

    csvFile.coalesce(1).write.format("csv").save(outputPath) // 这里通过合并文件来改变输出文件的数量
  大数据 最新文章
实现Kafka至少消费一次
亚马逊云科技:还在苦于ETL?Zero ETL的时代
初探MapReduce
【SpringBoot框架篇】32.基于注解+redis实现
Elasticsearch:如何减少 Elasticsearch 集
Go redis操作
Redis面试题
专题五 Redis高并发场景
基于GBase8s和Calcite的多数据源查询
Redis——底层数据结构原理
上一篇文章      下一篇文章      查看所有文章
加:2021-08-13 12:07:06  更:2021-08-13 12:13:03 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 -2024/11/23 8:42:07-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码