IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 大数据 -> nginx kafka flink mysql用户操作日志统计 -> 正文阅读

[大数据]nginx kafka flink mysql用户操作日志统计

背景

用户行为统计是常见需求,当用户点击某按钮或者进入某页面的时候将行为日志发送给后端进行运算保存。通过用户行为日志分析可以更好地捕捉用户喜好,开发出让用户喜欢的产品。

时序图

在这里插入图片描述

架构图

在这里插入图片描述

环境准备

  1. jdk 1.8
  2. zookeeper版本:3.4.14
  3. kafka版本:kafka_2.12-2.3.1
  4. nginx版本:nginx/1.18.0
  5. 操作系统:CentOS Linux release 7.4.1708 (Core)

安装zookeeper

安装配置kafka

  1. 修改/etc/hosts,配置zookeeper域名解析
    在这里插入图片描述
  2. 修改kafka安装目录的应用配置文件/config/server.properties
    1. 设置zookeeper地址:
    zookeeper.connect=zk1:2181
    
    host设置为使用hostname而不是ip,避免连接缓慢
    2. 设置broker.id(在集群中必须唯一)
    broker.id=x
    
    1. 设置日志文件存储位置(也可使用默认位置)
    log.dirs=/xxx/xxx
    
    1. 配置允许kafka远程访问
    advertised.listeners=PLAINTEXT://172.23.x.x:9092
    
    1. 其余配置
    #禁止自动创建主题
    auto.create.topics.enable=false
    #允许删除主题
    delete.topic.enable=true
    
    1. 配置文档:
      http://kafkadoc.beanmr.com/030_configuration/01_configuration_cn.html#brokerconfigs
  3. 在kafka安装目录输入以下命令启动kafka
bin/kafka-server-start.sh config/server.properties &
  1. kafka集群安装好后,在zookeeper安装目录执行以下命令连接zookeeper
./bin/zkCli.sh -server zk1:2181
  1. 通过zookeeper节点查看kafka状态
    命令:
    ls /brokers/ids
    
    结果:
    在这里插入图片描述

创建topic

  1. 在kafka安装目录执行以下脚本:
bin/kafka-topics.sh --create --zookeeper 172.23.x.x:2181 --replication-factor 1 --partitions 2 --topic usr-log
  1. 创建成功后,在kafka安装目录输入命令查看topic分片情况
bin/kafka-topics.sh --describe --zookeeper 172.23.x.x:2181 usr-log

在这里插入图片描述
topic被存储在2个分区中,并且只有一个leader副本,不做冗余备份。

安装nginx插件ngx_kafka_module

  1. 官方文档地址
    https://github.com/brg-liuwei/ngx_kafka_module

  2. 安装流程

    1. 安装插件前需先安装kafka c/c++客户端环境(librdkafka)
    2. 安装好kafka客户端环境后输入以下命令设置系统全局配置更新
     echo "/usr/local/lib" >> /etc/ld.so.conf
    
    ldconfig
    
    1. 安装ngx_kafka_module插件
    2. 注意事项:
      安装插件时,make install会覆盖原有nginx模块,若在已安装的nginx进行操作,执行configure时记得带上原模块,例如:
    ./configure --prefix=/usr/local/src/nginx_1.18.0 --with-http_ssl_module --add-module=/usr/local/src/ngx_kafka_module
    
  3. 官方安装核心步骤图
    在这里插入图片描述

配置nginx,将用户行为日志转发至kafka

  1. 修改nginx.conf文件,配置请求转发至kafka
http {
    kafka;
    kafka_broker_list 172.23.x.x:9092 172.23.x.x:9092;

    server {
        listen       80;
        server_name  localhost;

        location /log/usr {
            kafka_topic usr-log;
        }
    }
}
  1. 官方配置文档
    https://github.com/brg-liuwei/ngx_kafka_module
  2. 启动nginx
  3. 执行命令模拟客户端向nginx发送操作日志
curl -d '{"uid": 1, "action": "2"}' -H 'Content-Type: application/json' http://localhost/log/usr
  1. 使用kafka终端消费脚本观察日志是否发送至kafka
./kafka-console-consumer.sh --bootstrap-server 172.23.x.x:9092,172.23.x.x:9092 --topic usr-log

在这里插入图片描述

使用flink计算并且保存结果

  1. 添加maven依赖
<properties>
        <flink.version>1.10.3</flink.version>
        <lombok.version>1.18.10</lombok.version>
        <fastjson.version>1.2.49</fastjson.version>

        <maven.compiler.version>3.5.1</maven.compiler.version>
        <project.build.sourceEncoding>UTF-8</project.build.sourceEncoding>
        <project.reporting.outputEncoding>UTF-8</project.reporting.outputEncoding>
        <maven.compiler.encoding>UTF-8</maven.compiler.encoding>
    </properties>

    <dependencies>
        <dependency>
            <groupId>org.apache.flink</groupId>
            <artifactId>flink-java</artifactId>
            <version>${flink.version}</version>
        </dependency>
        <dependency>
            <groupId>org.apache.flink</groupId>
            <artifactId>flink-clients_2.12</artifactId>
            <version>${flink.version}</version>
        </dependency>
        <dependency>
            <groupId>org.apache.flink</groupId>
            <artifactId>flink-streaming-java_2.12</artifactId>
            <version>${flink.version}</version>
        </dependency>
        <dependency>
            <groupId>org.apache.flink</groupId>
            <artifactId>flink-jdbc_2.12</artifactId>
            <version>${flink.version}</version>
            <scope>provided</scope>
        </dependency>
        <dependency>
            <groupId>org.apache.flink</groupId>
            <artifactId>flink-connector-kafka_2.12</artifactId>
            <version>${flink.version}</version>
        </dependency>

        <dependency>
            <groupId>org.projectlombok</groupId>
            <artifactId>lombok</artifactId>
            <scope>provided</scope>
            <version>${lombok.version}</version>
        </dependency>
        <dependency>
            <groupId>com.alibaba</groupId>
            <artifactId>fastjson</artifactId>
            <version>${fastjson.version}</version>
        </dependency>
        <dependency>
            <groupId>log4j</groupId>
            <artifactId>log4j</artifactId>
            <version>1.2.17</version>
        </dependency>
        <dependency>
            <groupId>org.slf4j</groupId>
            <artifactId>slf4j-log4j12</artifactId>
            <version>1.7.25</version>
        </dependency>
    </dependencies>
  1. 编写flume程序从kafka抓取nginx日志,并保存到数据库
    • 编写启动类,拉取kafka消息
    // 构建流执行环境
            final StreamExecutionEnvironment env = StreamExecutionEnvironment.getExecutionEnvironment();
    
            // kafka 配置
            Properties props = new Properties();
            props.put("bootstrap.servers", "172.23.x.x:9092,172.23.x.x:9092");
            props.put("zookeeper.connect", "zk1:2181");
            props.put("group.id", "flink");
            props.put("client.id", "flink-1");
            props.put("key.deserializer", "org.apache.kafka.common.serialization.StringDeserializer");
            props.put("value.deserializer", "org.apache.kafka.common.serialization.StringDeserializer");
            //当各分区下有已提交的offset时,从提交的offset开始消费;无提交的offset时,消费新产生的该分区下的数据
            props.put("auto.offset.reset", "latest");
            props.put("enable.auto.commit", "true");
    
            DataStreamSource<String> dataStreamSource = env.addSource(
                    new FlinkKafkaConsumer<String>(
                            "usr-log",
                            new SimpleStringSchema(),
                            props))
                    //单线程打印,控制台不乱序,不影响结果
                    .setParallelism(1);
    
            //从kafka里读取数据
            dataStreamSource.timeWindowAll( Time.seconds(5L) ).apply(new AllWindowFunction<String, List<String>, TimeWindow>() {
                @Override
                public void apply(TimeWindow window, Iterable<String> iterableValues, Collector<List<String>> out) throws Exception {
                    List<String> strList = Lists.newArrayList(iterableValues);
                    if ( strList.isEmpty() ){
                        return;
                    }
                    out.collect(strList);
                }
            }).addSink( new JdbcPersistence() );sink 到数据库
    
            env.execute("nginx log analyse running");
    
    1. 编写数据持久类,保存统计结果到数据库
    /**
     * @function:jdbc持久化器
     */
    public class JdbcPersistence extends RichSinkFunction<List<String>> {
    
        @Override
        public void invoke(List<String> values, Context context) throws Exception {
            //TODO 解析日志
            for (String log : values) {
                System.out.println(log);
            }
            //TODO 构建统计结果
    
            //TODO 入库
        }
    }
    
    1. 消费结果:
      在这里插入图片描述
  大数据 最新文章
实现Kafka至少消费一次
亚马逊云科技:还在苦于ETL?Zero ETL的时代
初探MapReduce
【SpringBoot框架篇】32.基于注解+redis实现
Elasticsearch:如何减少 Elasticsearch 集
Go redis操作
Redis面试题
专题五 Redis高并发场景
基于GBase8s和Calcite的多数据源查询
Redis——底层数据结构原理
上一篇文章      下一篇文章      查看所有文章
加:2022-05-01 15:49:32  更:2022-05-01 15:49:44 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 -2024/11/24 0:58:01-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码