| |
|
开发:
C++知识库
Java知识库
JavaScript
Python
PHP知识库
人工智能
区块链
大数据
移动开发
嵌入式
开发工具
数据结构与算法
开发测试
游戏开发
网络协议
系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程 数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁 |
-> 大数据 -> Spark读取zip文件原理与详解 -> 正文阅读 |
|
[大数据]Spark读取zip文件原理与详解 |
问题: 当文件比较大时,效率特别慢,比如: 13G的文件读取,50核300G内存情况下,5h还不能处理完(实际上,是因为没有关闭连接而卡住导致的) spark2.3的官方文档中也写到: Partitioning is determined by data locality. This may result in too few partitions by default.
binaryFile:https://spark.apache.org/docs/2.0.2/api/scala/index.html#org.apache.spark.SparkContext zipInputStream: https://docs.oracle.com/javase/7/docs/api/java/util/zip/ZipInputStream.html\ PortableDataStream: https://spark.apache.org/docs/2.3.0/api/scala/index.html#org.apache.spark.input.PortableDataStream Stream: https://zhuanlan.zhihu.com/p/130958554 分区问题: https://www.coder.work/article/6527071 不关闭会出问题,表现为大文件时处理完后卡住不动 最佳答案 Spark 2.4+?,问题应该得到解决,请参阅此答案下方的@Rahul 评论。
|
|
|
上一篇文章 下一篇文章 查看所有文章 |
|
开发:
C++知识库
Java知识库
JavaScript
Python
PHP知识库
人工智能
区块链
大数据
移动开发
嵌入式
开发工具
数据结构与算法
开发测试
游戏开发
网络协议
系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程 数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁 |
360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 | -2024/11/23 16:58:51- |
|
网站联系: qq:121756557 email:121756557@qq.com IT数码 |