IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> Java知识库 -> spring-boot 集成 kafka -> 正文阅读

[Java知识库]spring-boot 集成 kafka

spring-boot 集成 kafka 2.5.7

1.maven依赖(生产者、消费者都需要)
<!-- kafka-->
<dependency>
     <groupId>org.springframework.kafka</groupId>
     <artifactId>spring-kafka</artifactId>
     <version>2.5.7</version>
 </dependency>
2.生产者配置文件yml格式:
spring:
  kafka:
    ## kafka服务器地址 多个服务集群“,”分隔
    bootstrap-servers: 127.0.0.1:9092,127.0.0.2:9092
    producer:
      acks: 0
      retries: 1
      buffer-memory: 33554432
      key-serializer: org.apache.kafka.common.serialization.StringSerializer
      value-serializer: org.apache.kafka.common.serialization.StringSerializer
      #每当多个记录被发送到同一分区时,生产者将尝试将记录一起批量处理为更少的请求,
      #这有助于提升客户端和服务器上的性能,此配置控制默认批量大小(以字节为单位),默认值为16384
      # batch-size: 100
      # 如果不设置linger.ms,其默认值就是0
      # linger.ms: 5
    topic:
      testTopic: testTopicName
      testTopicTwo: testTopicNameTwo
2.消费者配置文件yml格式:
spring:
  kafka:
    ## kafka服务器地址
    bootstrap-servers: 127.0.0.1:9092,127.0.0.2:9092
    consumer:
      # 设置kafka的消费者组
      group-id: group_name
      # 自动提交的时间间隔 在spring boot 2.X 版本中这里采用的是值的类型为Duration 需要符合特定的格式,如1S,1M,2H,5D
      auto-commit-interval: 1S
      # 该属性指定了消费者在读取一个没有偏移量的分区或者偏移量无效的情况下该作何处理:
      # latest(默认值)在偏移量无效的情况下,消费者将从最新的记录开始读取数据(在消费者启动之后生成的记录)
      # earliest :在偏移量无效的情况下,消费者将从起始位置读取分区的记录
      # 实时生产,实时消费,不会从头开始消费
      auto-offset-reset: latest
      # 是否自动提交偏移量,默认值是true,为了避免出现重复数据和数据丢失,可以把它设置为false,然后手动提交偏移量
      enable-auto-commit: true
      # 键的反序列化方式
      key-deserializer: org.apache.kafka.common.serialization.StringDeserializer
      # 值的反序列化方式
      value-deserializer: org.apache.kafka.common.serialization.StringDeserializer
      # 批量消费每次最多消费多少条消息
      max-poll-records: 50
    listener:
      # 在侦听器容器中运行的线程数。
      concurrency: 1
      # 设置批量消费
      type: batch
      #listner负责ack,每调用一次,就立即commit
      #      ack-mode: manual_immediate
      # 如果Broker上不存在至少一个配置的主题(topic),则容器是否无法启动,
      # 该设置项结合Broker设置项allow.auto.create.topics=true,如果为false,则会自动创建不存在的topic
    #      missing-topics-fatal: false
    # 主题同生产者
    topic:
      testTopic: testTopicName
      testTopicTwo: testTopicNameTwo
4.linux命令,在kafka安装目录下执行
  • 查询zk中的主题 ./bin/kafka-topics.sh --list --zookeeper 127.0.0.1:2181
  • 创建主题./bin/kafka-topics.sh --create --zookeeper 127.0.0.1:2181 --replication-factor 2 --partitions 1 --topic Re_receive
5.生产者代码
import lombok.extern.slf4j.Slf4j;
import org.springframework.beans.factory.annotation.Autowired;
import org.springframework.kafka.core.KafkaTemplate;
import org.springframework.kafka.support.SendResult;
import org.springframework.stereotype.Component;
import org.springframework.util.concurrent.ListenableFuture;
import org.springframework.util.concurrent.ListenableFutureCallback;

//发送数据工具类
@Component
@Slf4j
public class DataProducer {
    @Autowired
    private KafkaTemplate<String, Object> kafkaTemplate;

	//向指定主题中发送数据
    public void send(String topic,Object obj) {
        //发送消息
        ListenableFuture<SendResult<String, Object>> future = kafkaTemplate.send(topic, obj);
        //回调函数
        future.addCallback(new ListenableFutureCallback<SendResult<String, Object>>() {
            @Override
            public void onFailure(Throwable throwable) {
                //发送失败的处理
                log.info(topic + " - 生产者 发送消息失败:" + throwable.getMessage());
            }

            @Override
            public void onSuccess(SendResult<String, Object> stringObjectSendResult) {
                //成功的处理
                log.info(topic + " - 生产者 发送消息成功");
            }
        });
    }

}

生产者业务类:

    @Value("${spring.kafka.topic.testTopic}")
    private String topic;
    @Resource
    DataProducer dp;

	//发送数据到kafka
	public void testSendInfo(){
		//发送数据看个人要求,只要发送和解析同步即可,这里使用对象转jsonString
		MyInfoObj info = new MyInfoObj();
		dp.send(furnaceTopic, JSON.toJSONString(info));
	}
5.消费者代码
import com.alibaba.fastjson.JSONObject;
import lombok.extern.slf4j.Slf4j;
import org.apache.kafka.clients.consumer.ConsumerRecord;
import org.springframework.kafka.annotation.KafkaListener;
import org.springframework.stereotype.Component;

import javax.annotation.Resource;
import java.util.List;
import java.util.concurrent.Executor;

@Component
@Slf4j
public class ProductionConsumer {

    @Resource(name = "taskExecutor")
    private Executor taskExecutor;

	//监听
    @KafkaListener(topics = "${spring.kafka.topic.testTopic}")
    public void consumer(List<ConsumerRecord<String, String>> records) {
        //这里接收到之后开了个线程,便于异步处理
        taskExecutor.execute(() -> {
            for (ConsumerRecord<String, String> record : records) {
                consumerRecord(record);
            }
        });
    }
	//业务处理方法
    public void consumerRecord(ConsumerRecord<String, String> record) {
        try {
        	//接收发送信息
            JSONObject json = JSONObject.parseObject(record.value());
        } catch (Exception e) {
            log.error("kafka接收数据异常" + e);
        }
    }

}

taskExecutor线程池类(配置根据自己的要求,这里不做详细介绍)


import org.springframework.context.annotation.Bean;
import org.springframework.context.annotation.Configuration;
import org.springframework.scheduling.concurrent.ThreadPoolTaskExecutor;

import java.util.concurrent.Executor;

@Configuration
public class ExecutorConfig {

    @Bean("taskExecutor")
    public Executor taskExecutro(){
        ThreadPoolTaskExecutor taskExecutor = new ThreadPoolTaskExecutor();
        //配置核心线程数
        taskExecutor.setCorePoolSize(100);
        //配置最大线程数
        taskExecutor.setMaxPoolSize(150);
        //配置队列大小
        taskExecutor.setQueueCapacity(500);
        taskExecutor.setKeepAliveSeconds(60);
        //配置线程池中的线程的名称前缀
        taskExecutor.setThreadNamePrefix("taskExecutor--");
        //用来设置线程池关闭的时候等待所有任务都完成再继续销毁其他的Bean
        taskExecutor.setWaitForTasksToCompleteOnShutdown(true);
        //设置线程池中任务的等待时间,如果超过这个时候还没有销毁就强制销毁,以确保应用最后能够被关闭,而不是阻塞住
        taskExecutor.setAwaitTerminationSeconds(60);
        //执行初始化
        taskExecutor.initialize();
        return taskExecutor;
    }
}

– 本文完

  Java知识库 最新文章
计算距离春节还有多长时间
系统开发系列 之WebService(spring框架+ma
springBoot+Cache(自定义有效时间配置)
SpringBoot整合mybatis实现增删改查、分页查
spring教程
SpringBoot+Vue实现美食交流网站的设计与实
虚拟机内存结构以及虚拟机中销毁和新建对象
SpringMVC---原理
小李同学: Java如何按多个字段分组
打印票据--java
上一篇文章      下一篇文章      查看所有文章
加:2022-05-15 11:30:57  更:2022-05-15 11:31:36 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 -2024/11/23 22:35:21-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码