IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 大数据 -> kafka安装以及与spark集成与测试 -> 正文阅读

[大数据]kafka安装以及与spark集成与测试


目录

一、Zookeeper安装

二、kafka安装

1、下载地址

2、kafka解压安装并移动

3、环境变量配置

4、修改配置文件

5、启动

三、kafka和spark集成

1、下载安装包

2、kafka-clients包复制

四、kafka实例

1、创建输入主题:streams-plaintext-input

2、创建输出主题:streams-wordcount-output

3、Wordcount 应用程序测试

1)启动 Wordcount 应用程序

2)启动控制台生产者,向输入主题中写入数据:

3)使用控制台消费者,从输出主题中读取结果:


一、Zookeeper安装

参考上篇写的zookeeper安装文章。

ZooKeeper安装与配置_IMezZ的博客-CSDN博客一、ZooKeeper安装和配置1、zookeeper下载ZooKeeper官网https://zookeeper.apache.org/本文用的是zookeeper-3.4.8.tar.gz,下载 zookeeper-3.4.8.tar.gz。上传至主机/opt目录下2、安装和配置安装模式有单机和集群两种,这是采用集群模式,单机模式这里不再赘述。解压tar -zxvf zookeeper-3.4.8.tar.gz目录重命名mv zookeeper-3.4.8https://blog.csdn.net/qq_36249352/article/details/123850567?spm=1001.2014.3001.5501

二、kafka安装

1、下载地址

http://kafka.apache.org/downloadshttps://links.jianshu.com/go?to=http%3A%2F%2Fkafka.apache.org%2Fdownloads

????????安装的 Kafka 版本为 kafka_2.11-2.4.0.tgz,其中 2.11 代表 Scala 版本, 2.4.0 表示 Kafka 的版本。

2、kafka解压安装并移动

tar xvf kafka_2.11-2.4.0.tgz
mv kafka_2.11-2.4.0/ /usr/local/kafka/

3、环境变量配置

vim ~/.basbrc

export KAFKA_HOME=/usr/local/kafka/
PATH=\$PATH:\$JAVA_HOME/bin:\$JRE_HOME/bin:\$ZOOKEEPER_HOME/bin:\$KAFKA_HOME/bin

4、修改配置文件

????????修改$KAFKA_HOME/config 目录下的 server.properties文件,为了便于后 续集群环境搭建的配置, 需要保证同一个集群下 broker.id要唯一,因此这里手动配置 broker.id, 直接保持与ZooKeeper的myid值一致,同时配置日志存储路径。

server.properties配置如下 :

broker.id=l #指定代理的 id
log.dirs=/usr/local/kafka/kafka-logs #指定 Log 存储路径
zookeeper.connect=master:2181,node1:2181,node2:2181

zookeeper.properties配置如下:(dataDir和clientPort要和zookeeper配置的一致

dataDir=/usr/local/zookeeper/data

consumer.properties配置如下:

bootstrap.servers=master:9092,node1:9092,node2:9092

producer.properties配置如下:

bootstrap.servers=master:9092,node1:9092,node2:9092

????????将kafka文件夹scp到其他节点上,在三台机器上分别修改配置文件server.properties, 并修改对应的broker.id。

5、启动

./kafka-server-start.sh -daemon ../config/server.properties

执行 jps命令查看 Java进程,此时进程信息至少包括以下几项:

15976 Jps
14999 QuorumPeerMain
15906 Kafka

三、kafka和spark集成

1、下载安装包

spark-streaming-kafka-0-10_2.11-2.4.4.jar

在maven仓库下载安装包,下载地址:Maven Central Repository Searchhttps://search.maven.org/

选择适合的版本

?将下载好的包放在spark安装目录下:/usr/local/spark/jars/

2、kafka-clients包复制

将kafaka安装包/usr/local/kafka/libs/下的kafka-clients-2.4.0.jar复制到/usr/local/spark/jars/一份

cp /usr/local/kafka/libs/kafka-clients-2.4.0.jar  /usr/local/spark/jars/

四、kafka实例

1、创建输入主题:streams-plaintext-input

bin/kafka-topics.sh --create \
    --bootstrap-server master:9092 \
    --replication-factor 1 \
    --partitions 1 \
    --topic streams-plaintext-input

2、创建输出主题:streams-wordcount-output

由于输出流是一个 changelog 流,启用压缩。

bin/kafka-topics.sh --create \
    --bootstrap-server master:9092 \
    --replication-factor 1 \
    --partitions 1 \
    --topic streams-wordcount-output \
    --config cleanup.policy=compact

使用 kafka-topics 工具,查看已创建主题的描述:

bin/kafka-topics.sh --bootstrap-server master:9092 --describe

3、Wordcount 应用程序测试

1)启动 Wordcount 应用程序

示例程序将从输入主题 streams-plaintext-input 中读取消息,在执行 WordCount 算法计算之后,将结果连续写入输出主题 streams-wordcount-output。

bin/kafka-run-class.sh org.apache.kafka.streams.examples.wordcount.WordCountDemo

2)启动控制台生产者,向输入主题中写入数据:

bin/kafka-console-producer.sh --broker-list master:9092 --topic streams-plaintext-input

3)使用控制台消费者,从输出主题中读取结果:

bin/kafka-console-consumer.sh --bootstrap-server master:9092 \
    --topic streams-wordcount-output \
    --from-beginning \
    --formatter kafka.tools.DefaultMessageFormatter \
    --property print.key=true \
    --property print.value=true \
    --property key.deserializer=org.apache.kafka.common.serialization.StringDeserializer \
    --property value.deserializer=org.apache.kafka.common.serialization.LongDeserializer

结语

?????????本次的分享就到这里了,下一篇博客博主将带来kafka实战,敬请期待!受益的朋友或对大数据技术感兴趣的伙伴记得点赞关注支持一波!

  大数据 最新文章
实现Kafka至少消费一次
亚马逊云科技:还在苦于ETL?Zero ETL的时代
初探MapReduce
【SpringBoot框架篇】32.基于注解+redis实现
Elasticsearch:如何减少 Elasticsearch 集
Go redis操作
Redis面试题
专题五 Redis高并发场景
基于GBase8s和Calcite的多数据源查询
Redis——底层数据结构原理
上一篇文章      下一篇文章      查看所有文章
加:2022-04-01 00:08:39  更:2022-04-01 00:09:22 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 -2024/11/24 5:32:50-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码