1. 声明
当前内容主要为记录学习Learning Spark书籍中部分的内容,并作出使用上面的总结
2. Spark的基本使用理念
1.由于使用懒计算的方式,所以只有action的操作才会执行,transform操作不会执行
2.使用数据的时候,如果当前的RDD未持久化或者缓存,那么每次action操作都会出现重头开始的计算,非常不高效
3.Spark默认采用Scala语言编写,所以SparkContext就是scala的,java中需要使用JavaSparkContext
4.基本所有的操作都是通过函数方式
3.Spark中的基本transform
遵循的基本原则:只要是返回一个RDD的基本上算是一个transform!
例如:
- textFile
- filter
- distinct
- union等数学集合操作
…等其他操作
该操作会等待直到遇到一个action时才会从头开始执行,最后计算
例如:只有textFile时,Spark不会真的读取所有文件,只是加入到执行计划中
4. Spark中的基本action
遵循的基本原则:不返回RDD的基本上算是一个action
例如:
- count 统计数量
- countByValue 按值进行map统计数量
- first 拿出第一个值
- forEach
- collect
- reduce
… 等其他的操作
如果RDD未缓存,那么action就从头开始计算
5. 缓存
可以让计算结果保存起来,再次遇到action的时候会重用(persist())
优点:提高某个RDD结果使用率,提高效率 缺点:缓存太大,容易出现缓存失败的问题,可以通过unpersist解除缓存,必须在下次action之前使用
|