IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 大数据 -> [Scala/Flink] 读写 Kafka -> 正文阅读

[大数据][Scala/Flink] 读写 Kafka

1. 依赖&版本

Flink 与 Kafka 的一些方法调用跟其版本有关, 下面是我使用的版本

<properties>
  <maven.compiler.source>8</maven.compiler.source>
  <maven.compiler.target>8</maven.compiler.target>
  <maven.compiler.compilerVersion>8</maven.compiler.compilerVersion>

  <flink.version>1.12.1</flink.version>
  <scala.version>2.12.7</scala.version>
  <kafka.version>2.4.1</kafka.version>
</properties>

<dependencies>
  <dependency>
     <groupId>org.scala-lang</groupId>
     <artifactId>scala-library</artifactId>
     <version>${scala.version}</version>
   </dependency>
   
   <dependency>
      <groupId>org.apache.flink</groupId>
      <artifactId>flink-connector-kafka_2.12</artifactId>
      <version>${flink.version}</version>
    </dependency>
    
    <dependency>
      <groupId>org.apache.flink</groupId>
      <artifactId>flink-scala_2.12</artifactId>
      <version>${flink.version}</version>
	</dependency>
	
	<dependency>
      <groupId>org.apache.flink</groupId>
      <artifactId>flink-streaming-scala_2.12</artifactId>
      <version>${flink.version}</version>
    </dependency>

	<dependency>
      <groupId>org.apache.flink</groupId>
      <artifactId>flink-clients_2.12</artifactId>
      <version>${flink.version}</version>
    </dependency>

	<dependency>
        <groupId>org.apache.kafka</groupId>
        <artifactId>kafka-clients</artifactId>
        <version>${kafka.version}</version>
    </dependency>
</dependencies>

2. Flink 读取 Kafka

import org.apache.flink.streaming.connectors.kafka.FlinkKafkaConsumer
import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment
import org.apache.flink.api.common.serialization.SimpleStringSchema
import org.apache.flink.streaming.api.datastream.DataStreamSource
import java.util.Properties

Object Test {
	def main(args: Array[String]): Unit = {
		val env = StreamExecutionEnvironment.getExecutionEnvironment
		val kafkaSubTopic = "topic-test"
		val kafkaGroupId = "group-test"
		val stream: DataStreamSource[String] = readKafka(env, kafkaSubTopic, kafkaGroupId, "latest")
		stream.print()
		env.execute()
	}
	
	def readKafka(
               env: StreamExecutionEnvironment,
               topic: String,
               groupId: String,
               offset: String = "latest"
            )= {
		props.put("bootstrap.servers", "{ip}:9092") // {ip} 替换为本机 ip
	    props.put("key.serializer", "org.apache.kafka.common.serialization.StringSerializer")
	    props.put("value.serializer", "org.apache.kafka.common.serialization.StringSerializer")
	    props.put("key.deserializer", "org.apache.kafka.common.serialization.StringSerializer")
	    props.put("value.deserializer", "org.apache.kafka.common.serialization.StringDeserializer")
		props.put("auto.offset.reset", offset)
	
	    env.addSource(new FlinkKafkaConsumer[String](topic, new SimpleStringSchema(), props))
    }
}

3. Flink 写入 Kafka

import org.apache.flink.streaming.api.environment.StreamExecutionEnvironment
import org.apache.flink.api.common.serialization.SimpleStringSchema
import org.apache.kafka.clients.producer.{KafkaProducer, ProducerRecord, Callback, RecordMetadata}
import com.alibaba.fastjson.JSON
import java.util.Properties

Object Test {
	def main(args: Array[String]): Unit = {
		val producer = new MyKafkaProducer("Test")
		val data = new JSONObject()
		data.put("a", "1")
		producer.send(data.toString())
	}

	class MyKafkaProducer(val topic: String) {
	    private val props = getProps()
	    private val producer = new KafkaProducer[String, String](props)
	
	    def send(data: String): Unit = {
	      val record = new ProducerRecord[String, String](topic, data)
	      
	      producer.send(record, new ProducerCallBack)
	    }
	
	    class ProducerCallBack extends Callback {
	      def onCompletion(metadata: RecordMetadata, exception: Exception): Unit = {
	        if (exception != null) exception.printStackTrace()
	      }
	    }
    }
}
  大数据 最新文章
实现Kafka至少消费一次
亚马逊云科技:还在苦于ETL?Zero ETL的时代
初探MapReduce
【SpringBoot框架篇】32.基于注解+redis实现
Elasticsearch:如何减少 Elasticsearch 集
Go redis操作
Redis面试题
专题五 Redis高并发场景
基于GBase8s和Calcite的多数据源查询
Redis——底层数据结构原理
上一篇文章      下一篇文章      查看所有文章
加:2022-05-19 11:58:28  更:2022-05-19 11:59:05 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 -2024/11/23 20:05:07-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码