IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 大数据 -> Spark-核心编程(三)使用RDD算子完成WordCount -> 正文阅读

[大数据]Spark-核心编程(三)使用RDD算子完成WordCount

其他WordCount解决方法

// 转换算子
// groupBy
def wordcount1(sc: SparkContext): Unit = {
    sc.makeRDD(List("Hello Scala", "Hello Spark"))
    .flatMap(_.split(" "))
    .groupBy(word => word)
    .mapValues(iter => iter.size)
    .collect()
    .foreach(println)
}

// groupByKey
def wordcount2(sc: SparkContext): Unit = {
    sc.makeRDD(List("Hello Scala", "Hello Spark"))
    .flatMap(_.split(" "))
    .map(_ -> 1)
    .groupByKey()
    .mapValues(iter => iter.size)
    .collect()
    .foreach(println)
}

// reduceByKey
def wordcount3(sc: SparkContext): Unit = {
    sc.makeRDD(List("Hello Scala", "Hello Spark"))
    .flatMap(_.split(" "))
    .map(_ -> 1)
    .reduceByKey(_ + _)
    .collect()
    .foreach(println)
}

// aggregateByKey
def wordcount4(sc: SparkContext): Unit = {
    sc.makeRDD(List("Hello Scala", "Hello Spark"))
    .flatMap(_.split(" "))
    .map(_ -> 1)
    .aggregateByKey(0)(_ + _, _ + _)
    .collect()
    .foreach(println)
}

// foldByKey
def wordcount5(sc: SparkContext): Unit = {
    sc.makeRDD(List("Hello Scala", "Hello Spark"))
    .flatMap(_.split(" "))
    .map(_ -> 1)
    .foldByKey(0)(_ + _)
    .collect()
    .foreach(println)
}

// combineByKey
def wordcount6(sc: SparkContext): Unit = {
    sc.makeRDD(List("Hello Scala", "Hello Spark"))
    .flatMap(_.split(" "))
    .map(_ -> 1)
    .combineByKey(
        x => x,
        (x: Int, y) => x + y,
        (x: Int, y: Int) => x + y
    )
    .collect()
    .foreach(println)
}

// 行动算子
// countByKey
def wordcount7(sc: SparkContext): Unit = {
    val rdd: collection.Map[String, Long] = sc.makeRDD(List("Hello Scala", "Hello Spark"))
    .flatMap(_.split(" "))
    .map(_ -> 1)
    .countByKey()

    println(rdd)
}

// countByValue
def wordcount8(sc: SparkContext): Unit = {
    val rdd: collection.Map[String, Long] = sc.makeRDD(List("Hello Scala", "Hello Spark"))
    .flatMap(_.split(" "))
    .countByValue()

    println(rdd)
}

// reduce
def wordcount9(sc: SparkContext): Unit = {
    val rdd: mutable.Map[String, Long] = sc.makeRDD(List("Hello Scala", "Hello Spark"))
    .flatMap(_.split(" "))
    .map(word => {
        mutable.Map[String, Long]((word, 1))
    })
    .reduce((map1, map2) => {
        map2.foreach {
            case (word, count) => {
                val newCount = map1.getOrElse(word, 0L) + count
                map1.update(word, newCount)
            }
        }
        map1
    })

    println(rdd)
}

// aggregate
def wordcount10(sc: SparkContext): Unit = {
    val rdd: mutable.Map[String, Long] = sc.makeRDD(List("Hello Scala", "Hello Spark"))
    .flatMap(_.split(" "))
    .map(word => {
        Map((word, 1))
    })
    .aggregate(mutable.Map[String, Long]())(
        (map1, map2) => {
            map2.foreach {
                case (word, count) => {
                    val newCount = map1.getOrElse(word, 0L) + count
                    map1.update(word, newCount)
                }
            }
            map1
        },
        (map1, map2) => {
            map2.foreach {
                case (word, count) => {
                    val newCount = map1.getOrElse(word, 0L) + count
                    map1.update(word, newCount)
                }
            }
            map1
        }
    )

    println(rdd)
}


// fold
def wordcount11(sc: SparkContext): Unit = {
    val rdd: mutable.Map[String, Long] = sc.makeRDD(List("Hello Scala", "Hello Spark"))
    .flatMap(_.split(" "))
    .map(word => {
        mutable.Map((word, 1L))
    })
    .fold(mutable.Map[String, Long]())(
        (map1, map2) => {
            map2.foreach {
                case (word, count) => {
                    val newCount: Long = map1.getOrElse(word, 0L) + count
                    map1.update(word, newCount)
                }
            }
            map1
        }
    )

    println(rdd)
}
  大数据 最新文章
实现Kafka至少消费一次
亚马逊云科技:还在苦于ETL?Zero ETL的时代
初探MapReduce
【SpringBoot框架篇】32.基于注解+redis实现
Elasticsearch:如何减少 Elasticsearch 集
Go redis操作
Redis面试题
专题五 Redis高并发场景
基于GBase8s和Calcite的多数据源查询
Redis——底层数据结构原理
上一篇文章      下一篇文章      查看所有文章
加:2021-08-04 11:16:50  更:2021-08-04 11:18:22 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年5日历 -2024/5/17 19:50:22-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码