| |
|
开发:
C++知识库
Java知识库
JavaScript
Python
PHP知识库
人工智能
区块链
大数据
移动开发
嵌入式
开发工具
数据结构与算法
开发测试
游戏开发
网络协议
系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程 数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁 |
-> 大数据 -> Kafka集群部署 -> 正文阅读 |
|
[大数据]Kafka集群部署 |
1)解压安装包tar -zxvf kafka_2.11-0.11.0.0.tgz 2)修改解压后的文件名称mv kafka_2.11-0.11.0.0/ kafka 3)在/opt/module/kafka目录下创建logs文件夹mkdir logs 4)修改配置文件cd config/ ? vim server.properties 输入以下内容: 注:千万不要有空格 #broker的全局唯一编号,不能重复 broker.id=0 #删除topic功能使能 delete.topic.enable=true #处理网络请求的线程数量 num.network.threads=3 #用来处理磁盘IO的现成数量 num.io.threads=8 #发送套接字的缓冲区大小 socket.send.buffer.bytes=102400 #接收套接字的缓冲区大小 socket.receive.buffer.bytes=102400 #请求套接字的缓冲区大小 socket.request.max.bytes=104857600 #kafka运行日志存放的路径 log.dirs=/opt/kafka/logs #topic在当前broker上的分区个数 num.partitions=1 #用来恢复和清理data下数据的线程数量 num.recovery.threads.per.data.dir=1 #segment文件保留的最长时间,超时将被删除 log.retention.hours=168 #配置连接Zookeeper集群地址 zookeeper.connect=wt01:2181,wt02:2181,wt03:2181 192.168.20.32:2181,192.168.20.33:2181,192.168.20.34:2181 5)配置环境变量vim /etc/profile #KAFKA_HOME export KAFKA_HOME=/opt/kafka export PATH=$PATH:$KAFKA_HOME/bin ? 刷新环境变量 source /etc/profile 6)分发安装包xsync kafka/ 注意:分发之后记得配置其他机器的环境变量 7)分配分别在gz005和gz006上修改配置文件vim /opt/kafka/config/server.properties中的 broker.id=1 broker.id=2 注:broker.id不得重复 8)启动集群首先启动zookeeper集群 启动 Server 三个节点都需要执行,没有一键启动的脚本 /opt/zookeeper/bin/zkServer.sh start 依次在gz004、gz005、gz006节点上启动kafka 在kafka目录运行 # bin/kafka-server-start.sh -daemon config/server.properties 9)关闭集群bin/kafka-server-stop.sh stop Kafka命令行操作1)查看当前服务器中的所有topicbin/kafka-topics.sh --zookeeper 127.0.0.1:2181 --list 查看某个topic里的数据 bin/kafka-console-consumer.sh --bootstrap-server 192.167.30.21:9092 --topic topicName --from-beginning 2)创建topicbin/kafka-topics.sh --zookeeper 192.168.20.32:2181 --create --replication-factor 3 --partitions 1 --topic t01 选项说明: --topic 定义topic名 --replication-factor 定义副本数 --partitions 定义分区数 3)删除topicbin/kafka-topics.sh --zookeeper 192.168.20.32:2181 --delete --topic t01 需要server.properties中设置delete.topic.enable=true否则只是标记删除或者直接重启。 4)发送消息bin/kafka-console-producer.sh \ ? --broker-list gz004:9092 --topic first ? \>hello world 5)消费消息bin/kafka-console-consumer.sh \ ? --zookeeper hadoop102:2181 --from-beginning --topic first --from-beginning:会把first主题中以往所有的数据都读取出来。根据业务场景选择是否增加该配置。 6)查看某个Topic的详情bin/kafka-topics.sh --zookeeper 127.0.0.1:2181 \ --describe --topic first ?? ? ? ? ? ? ? ? ? ? ? ? ? ? kafka与flume连接1.启动zookeeper 三个主机都启动
2.启动kafka 三个主机都启动 启动后不要退出,在在三台主机基础上复制三个xshell窗口进行下面的操作。
3.在opt目录下放入flume的安装包 4.创建一个access.log文件 在里面输入信息 5.将access.log 文件放入到 /opt下 这边的文件跟fk.conf的source路径有关 6.将fk.conf 放入到flume下的 /opt/flume/conf 目录下。
7.创建 topic
8.在gz006主机中进入到t02 消费消息模式
9.在gz004主机上运行flume配置文件
10.再次复制一个gz004xshell端口,进入到/opt/kafka/logs 查看t02-0 中的日志 kafka监控工具1)启动集群 zookeeper集群
kafka集群
2)把 KafkaOffsetMonitor-assembly-0.2.0.jar 放到kafka的lib目录下 3)运行命令
4)访问 wt01:9000 Kafka Eagle安装及使用参考网址:blog.csdn.net/locky_lll/article/details/104840827 1)kafka-eagle-bin-1.2.4.tar.gz 放到opt下解压
2)设置全局变量 #添加代码
#刷新 3)进入kafka-eagle的conf目录下修改配置文件 #修改配置文件 #修改
4)文件配置完毕后开始启动 ,启动要进入bin目录下 #进入bin目录后会看到 ke.sh 文件先修改文件的权限 #启动命令 hive要启动
|
|
|
上一篇文章 下一篇文章 查看所有文章 |
|
开发:
C++知识库
Java知识库
JavaScript
Python
PHP知识库
人工智能
区块链
大数据
移动开发
嵌入式
开发工具
数据结构与算法
开发测试
游戏开发
网络协议
系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程 数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁 |
360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 | -2024/11/23 16:47:49- |
|
网站联系: qq:121756557 email:121756557@qq.com IT数码 |