IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 大数据 -> pyflink滑动窗口实例 -> 正文阅读

[大数据]pyflink滑动窗口实例

写在前头:

更多大数据相关精彩内容请进我的知识星球,每周定期更新

?正篇

技术路线:模拟kafka生产者发送数据——>flink对kafka数据实时计算处理——>处理后的数据发送到kafka

1、模拟客流数据的生产者,参考2021-08-19,flink:kafka——>mysql

2、flink聚合操作原理介绍,参考2021-08-25,flink窗口函数原理深入

滑动窗口:不同于滚动窗口,滑动窗口的窗口可以重叠

滑动窗口有两个参数:slide和size。slide为每次滑动的步长,size为窗口的大小。

  • slide < size,则窗口会重叠,每个元素会被分配到多个窗口。
  • slide = size,则等同于滚动窗口(TUMBLE)。
  • slide > size,则为跳跃窗口,窗口之间不重叠且有间隙。

参考自:https://help.aliyun.com/document_detail/62512.html

滑动窗口示例:

以客流数据为例,20s为一个窗口,10s为一个步长,计算该事件窗口内的客流数和

kafka中数据样式为:

{'stationid':1, 'stationname':'车站1', 'time':'2021-08-01 00:00:00', 'equipmentid':10, 'num':10, 'inorout':0}

这里滑动窗口演示代码如下:

# -*- coding: UTF-8 -*-
import os
from pyflink.datastream import StreamExecutionEnvironment
from pyflink.table import StreamTableEnvironment, EnvironmentSettings


# 创建Table Environment, 并选择使用的Planner
env = StreamExecutionEnvironment.get_execution_environment()
t_env = StreamTableEnvironment.create(
   env,
   environment_settings=EnvironmentSettings.new_instance().use_blink_planner().build())

sourceKafkaDdl = """
    create table SourceKafka(
        stationId int,
        stationName varchar,
        CreateTime varchar,
        rt as TO_TIMESTAMP(CreateTime, 'yyyyMMdd HH:mm:ss'),
        equipmentId int,
        passengerNum int,
        inOrOut int,
        WATERMARK FOR rt as rt - INTERVAL '10' SECOND
    )
    with(
        'connector.type' = 'kafka',
        'connector.version' = 'universal',
        'connector.topic' = 'passenger-flow2',
        'connector.properties.zookeeper.connect' = 'tdh09:2181',
        'connector.properties.bootstrap.servers' = 'tdh09:9092',
        'connector.startup-mode' = 'latest-offset',
        'format.type' = 'json',
        'format.ignore-parse-errors' = 'true'
    )
    """

KafkaSinkDdl = """
   CREATE TABLE SinkKafka (
    stationId INT ,
    stationName VARCHAR ,
    passengerNumSum INT,
    window_start TIMESTAMP(3),
    window_end TIMESTAMP(3)
) WITH (
    'connector.type' = 'kafka',
    'connector.version' = 'universal',
    'connector.topic' = 'passenger-flow3',
    'connector.properties.zookeeper.connect' = 'tdh09:2181',
    'connector.properties.bootstrap.servers' = 'tdh09:9092',
    'connector.startup-mode' = 'latest-offset',
    'format.type' = 'json',
    'format.ignore-parse-errors' = 'true'
)
"""

# 创建Kafka数据源表
t_env.execute_sql(sourceKafkaDdl)
# 创建MySql结果表
t_env.execute_sql(KafkaSinkDdl)

query = """
select stationId, stationName , sum(passengerNum) as passengerNumSum, HOP_START(rt, INTERVAL '10' SECOND, INTERVAL '20' SECOND), HOP_END(rt, INTERVAL '10' SECOND, INTERVAL '20' SECOND)
from SourceKafka
group by stationId, stationName, HOP(rt, INTERVAL '10' SECOND, INTERVAL '20' SECOND)
"""


t_env.sql_query(query=query).insert_into("SinkKafka")
t_env.execute("pyFlink_mysql")

处理前数据:

处理后数据:

  大数据 最新文章
实现Kafka至少消费一次
亚马逊云科技:还在苦于ETL?Zero ETL的时代
初探MapReduce
【SpringBoot框架篇】32.基于注解+redis实现
Elasticsearch:如何减少 Elasticsearch 集
Go redis操作
Redis面试题
专题五 Redis高并发场景
基于GBase8s和Calcite的多数据源查询
Redis——底层数据结构原理
上一篇文章      下一篇文章      查看所有文章
加:2021-08-27 11:55:47  更:2021-08-27 11:58:22 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 -2024/11/23 16:54:57-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码