IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 大数据 -> Flink: 窗口计算 -> 正文阅读

[大数据]Flink: 窗口计算

Event-time Window

在这里插入图片描述

Event Time

Flink在流计算的过程中,支持多种时间概念。Event Time / Processing Time / Ingestion Time

  • Processing Time:处理时间是指执行相应操作的机器的系统时间。
  • Event Time:事件时间是每个事件在其生产设备上发生的时间。处理乱序数据(数据的处理和数据的生成顺序乱啦)
  • Ingestion:摄取时间是事件进入Flink的时间
    在这里插入图片描述

时间机制:在事件时间中,时间的进度取决于数据,而不是任何时钟。事
件时间程序必须指定如何生成事件时间Watermarks,这是事件时间进程的信号机制

Watermark-水位线

概念
Watermark是Flink中测量事件时间进度的机制。Watermark作为数据流的一部分流动,并带有时间戳t。数据流中的Watermark用于表示时间戳小Watermark的数据,都已经到达了。因此流中不应该再有时间戳t’<=watermark的元素。因此只有水位线越过对应窗口的结束时间,窗口才会关闭和进行计算

  • watermark是一个衡量事件时间进度的机制:水位线就是时间戳
  • watermark是解决乱序问题的重要依据
  • 在窗口计算中,watermark没过了窗口的结束时间就触发窗口计算(属于该窗口的元素都已经到达);被认为早于这个时间的数据都已经到达
  • watermark的计算应该是:最大事件时间-最大允许迟到时间

所谓乱序,就是指Flink接收到的事件的先后顺序不是严格按照事件的Event Time顺序排列的。

因为有可能乱序,如果只根据eventTime决定窗口的运行,就不能明确数据是否全部到位,但又不能无限期的等待,此时必须要有一种机制来保证一个特定的时间后,必须触发window function进行计算,这个机制就是Watermark。

在这里插入图片描述
Flink接收到每一条数据时,都会产生一条Watermark,这条Watermark就等于当前所有到达数据中的maxEventTime - 允许延迟的时间

watermark=maxEventTime-maxAllowedLateness

在这里插入图片描述

watermark计算

Flink中常用watermark计算方式有两种

  • With Periodic Watermarks–定期提取水位线:比如每间隔1秒计算出来一个水位线
  • With Punctuated Watermarks–每一个event计算一个水位线(不常用)
  1. With Periodic Watermarks
	
import java.text.SimpleDateFormat


import org.apache.flink.streaming.api.functions.AssignerWithPeriodicWatermarks 
import org.apache.flink.streaming.api.watermark.Watermark

	/**
	  * 这种方式计算水位线是常用的方式
	  */
	
class MyAssignerWithPeriodicWatermarks extends AssignerWithPeriodicWatermarks[(String,Long)]{

	//最大事件时间
	var maxEventTime:Long=_

	//最大允许迟到时间
	var maxAllowedLateness:Long=2000

	//用来计算水位线;由系统自动调用(每间隔一定时间调用一次)--以固定的频率调用
	override def getCurrentWatermark: Watermark = {
new Watermark(maxEventTime-maxAllowedLateness)
}


	/**
	  *有一个元素就会执行一次
	  *@param element 流过来的元素
	  *@param previousElementTimestamp
	  *@return
	  */

override def extractTimestamp(element: (String, Long), previousElementTimestamp:
Long): Long = {
	//时间格式化器
	val format = new SimpleDateFormat("HH:mm:ss")

	//计算最大的事件时间
	maxEventTime=Math.max(maxEventTime,element._2)

	println("当前元素:"+(element._1,format.format(element._2))+",水位 线:"+format.format(maxEventTime-maxAllowedLateness))

	//方法返回值是当前元素的时间戳
	element._2
	}
}
import java.text.SimpleDateFormat

import org.apache.flink.streaming.api.scala.function.AllWindowFunction
import org.apache.flink.streaming.api.windowing.windows.TimeWindow 
import org.apache.flink.util.Collector

class MyAllWindowFunctionForEventTime extends AllWindowFunction[(String,Long),String,TimeWindow]{
	override def apply(window: TimeWindow, input: Iterable[(String, Long)], out: Collector[String]): Unit = {
		val start: Long = window.getStart 
		val end: Long = window.getEnd

		//把窗口的开始时间和结束时间打印一下
		//note:窗口的边界规则:前开后闭(前包含后不包含)
		val format = new SimpleDateFormat("HH:mm:ss")
		println("窗口时间范围:["+format.format(start)+","+format.format(end)+")")

		//把处理之后的元素发送到下游
		val elements: String =input.map(word=>word._1+":"+format.format(word._2)).mkString(" | ") out.collect(elements)
	}
}
import org.apache.flink.streaming.api.TimeCharacteristic 
import org.apache.flink.streaming.api.scala.{DataStream, StreamExecutionEnvironment, _}
import org.apache.flink.streaming.api.windowing.assigners.{TumblingEventTimeWindows, TumblingProcessingTimeWindows} 
import org.apache.flink.streaming.api.windowing.time.Time

object AssignerWithPeriodicWatermarksDemo { def main(args: Array[String]): Unit = {
	val environment: StreamExecutionEnvironment =StreamExecutionEnvironment.getExecutionEnvironment

	//能够保证测试有效果,就应该把并行度设置为1 
	environment.setParallelism(1)

	//因为flink在做流计算时默认使用的是processingTime。如果要使用eventTime,就需要显示声明
	environment.setStreamTimeCharacteristic(TimeCharacteristic.EventTime)

	//每1秒钟调用一个水位线生成函数
	environment.getConfig.setAutoWatermarkInterval(1000)

	//要求输入的数据是	数据 时间戳,比如: a 1590647654000 val 
	dataStream: DataStream[String] =environment.socketTextStream("flink.baizhiedu.com",9999)


	val result: DataStream[String] = dataStream.map(line => line.split("\\s+"))
		.map(word => (word(0), word(1).toLong))
		//指定水位线生成策略---》另外的一句话讲,以何种方式生成水位线
		.assignTimestampsAndWatermarks(new MyAssignerWithPeriodicWatermarks)
		.windowAll(TumblingEventTimeWindows.of(Time.seconds(2)))
		.apply(new MyAllWindowFunctionForEventTime)

result.print()
environment.execute("AssignerWithPeriodicWatermarksDemoJob")
	}
}

在这里插入图片描述

迟到数据

当有多个并行度的时候,水位线是按照最低的进行计算的

在?ink中对于迟到数据进行了三种处理

  • 默认处理方式:直接丢弃(spark就是采用这个方式)
  • 在允许迟到的范围内,会重新开启窗口进行重新计算
  • 超出了范围的数据tooLate,可以采用边输出的方式呈现处理方便后续的处理

在Flink中,水位线一旦没过窗口的EndTime,如果还有数据落入到此窗口,这些数据被定义为迟到数据。默认情况 下,迟到数据将被删除。但是,Flink允许为窗口操作符指定允许的最大延迟,在允许的延迟范围内到达的元素仍然 会添加到窗口中。根据使用的触发器,延迟但未丢弃的元素可能会导致窗口再次触发。

  • 如果Watermarker时间t < 窗口EndTime t’’ +允许迟到时间 t’ ,则该数据还可以参与窗口计算。
import org.apache.flink.streaming.api.TimeCharacteristic 
import org.apache.flink.streaming.api.scala.{DataStream,StreamExecutionEnvironment, _}
import org.apache.flink.streaming.api.windowing.assigners.TumblingEventTimeWindows 
import org.apache.flink.streaming.api.windowing.time.Time

object AssignerWithPunctuatedWatermarksForLatenessDemo { def main(args: Array[String]): Unit = {
	val environment: StreamExecutionEnvironment = StreamExecutionEnvironment.getExecutionEnvironment

	//能够保证测试有效果,就应该把并行度设置为1 	
	environment.setParallelism(1)

	//因为flink在做流计算时默认使用的是processingTime。如果要使用eventTime,就需要显示声明
	environment.setStreamTimeCharacteristic(TimeCharacteristic.EventTime)

	//要求输入的数据是	数据 时间戳,比如: a 1590647654000 val 
	dataStream: DataStream[String] = environment.socketTextStream("flink.baizhiedu.com",9999)


	val result: DataStream[String] = dataStream.map(line => line.split("\\s+"))
		.map(word => (word(0), word(1).toLong))
		//指定水位线生成策略---》另外的一句话讲,以何种方式生成水位线
		.assignTimestampsAndWatermarks(new MyAssignerWithPunctuatedWatermarks)
		.windowAll(TumblingEventTimeWindows.of(Time.seconds(2)))

///===============================新添加的内容在这里===========================
		.allowedLateness(Time.seconds(2))
		.apply(new MyAllWindowFunctionForEventTime)

	result.print()
	environment.execute("AssignerWithPeriodicWatermarksDemoJob")
	}
}
  • 如果Watermarker时间t >= 窗口EndTime t’’ + 允许迟到时间t’ 则该数据会被丢弃。为了能够更直观的呈现这些too late数据,可以通过side out输出
import org.apache.flink.streaming.api.TimeCharacteristic 
import org.apache.flink.streaming.api.scala.{DataStream,StreamExecutionEnvironment, _}
import org.apache.flink.streaming.api.windowing.assigners.TumblingEventTimeWindows 
import org.apache.flink.streaming.api.windowing.time.Time

object AssignerWithPunctuatedWatermarksForTooLateDemo { def main(args: Array[String]): Unit = {
	val environment: StreamExecutionEnvironment = StreamExecutionEnvironment.getExecutionEnvironment

	//能够保证测试有效果,就应该把并行度设置为1 
	environment.setParallelism(1)

	//因为flink在做流计算时默认使用的是processingTime。如果要使用eventTime,就需要显示声明	
	environment.setStreamTimeCharacteristic(TimeCharacteristic.EventTime)

	//要求输入的数据是	数据 时间戳,比如: a 1590647654000 val 
	dataStream: DataStream[String] = environment.socketTextStream("flink.baizhiedu.com",9999)

	//要把too late数据通过边输出显示,就需要outputTag
	var outputTag:OutputTag[(String,Long)]=new OutputTag[(String,Long)]("too late")


	val result: DataStream[String] = dataStream.map(line => line.split("\\s+"))
		.map(word => (word(0), word(1).toLong))
		//指定水位线生成策略---》另外的一句话讲,以何种方式生成水位线
		.assignTimestampsAndWatermarks(new MyAssignerWithPunctuatedWatermarks)
		.windowAll(TumblingEventTimeWindows.of(Time.seconds(2)))
		.allowedLateness(Time.seconds(2))
///===============================新添加的内容在这里===========================
		//迟到时间>=允许允许迟到时间的数据,通过边输出的方式
		.sideOutputLateData(outputTag)
		.apply(new MyAllWindowFunctionForEventTime)

		result.print("正常")
		result.getSideOutput(outputTag).printToErr("太迟的数据")
		environment.execute("AssignerWithPeriodicWatermarksDemoJob")
		}
	}
  大数据 最新文章
实现Kafka至少消费一次
亚马逊云科技:还在苦于ETL?Zero ETL的时代
初探MapReduce
【SpringBoot框架篇】32.基于注解+redis实现
Elasticsearch:如何减少 Elasticsearch 集
Go redis操作
Redis面试题
专题五 Redis高并发场景
基于GBase8s和Calcite的多数据源查询
Redis——底层数据结构原理
上一篇文章      下一篇文章      查看所有文章
加:2021-08-20 15:11:21  更:2021-08-20 15:12:21 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 -2024/11/23 12:54:59-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码