IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 大数据 -> flink sql 知其所以然(七):不会连最适合 flink sql 的 ETL 和 group agg 场景都没见过吧? -> 正文阅读

[大数据]flink sql 知其所以然(七):不会连最适合 flink sql 的 ETL 和 group agg 场景都没见过吧?

感谢您的小爱心(关注 ?+ ?点赞 + 再看),对博主的肯定,会督促博主持续的输出更多的优质实战内容!!!

1.序篇-本文结构

前面的章节铺垫了那么多,终于在本节走入一条 query 了。

针对 datastream api 大家都比较熟悉了,还是那句话,在 datastream 中,你写的代码逻辑是什么样的,它最终的执行方式就是什么样的。

但是对于 flink sql 的执行过程,大家还是不熟悉的。

因此本文通过以下章节使用 ETL,group agg(sum,count等)简单聚合类 query 带大家走进一条 flink sql query 逻辑的世界。帮大家至少能够熟悉在 flink sql 程序运行时知道 flink 程序在干什么。

  1. 背景篇-大家不了解 flink sql 什么?

  2. 目标篇-本文能帮助大家了解 flink sql 什么?

  3. 实战篇-简单的 query 案例和运行原理

  4. 总结与展望篇

先说说结论:

  1. 场景问题:flink sql 很适合简单 ETL,以及基本全部场景下的聚合类指标。

  2. 语法问题:flink sql 语法其实是和其他 sql 语法基本一致的。基本不会产生语法问题阻碍使用 flink sql。

  3. 运行问题:查看 flink sql 任务时的一些技巧:

  • 去 flink webui 看看这个任务目前在做什么。包括算子名称都会给直接展示给我们目前哪个算子在干啥事情,在处理啥逻辑。

  • 如果你想知道你的 flink 任务执行了什么代码,就去看看 sql 最后转换成的 transformation 里面具体要执行哪些操作。flink sql 生成的代码也在里面。

  • 如果你不确定线上任务执行原理,可以直接在本地尝试运行。

2.背景篇-大家不了解 flink sql 什么?

首先从大家用 flink sql 的一个初衷和状态出发,想一下大家在开始上手 flink sql 时,是什么样的一个想法?

博主大概整理了下,在初步上手 flink sql,一般从入手到踩坑整个过程中,一般都会有以下几种问题或者想法:

  1. 场景问题:首先 flink sql 是用来提效的,那相比 datastream,哪些场景很适合 flink sql 去做?

  2. 语法问题:我写 sql 时 flink sql 语法会不会和其他 sql 语法有不同?

  3. 运行问题:我写了一条 sql,运行起来了,但是对我来说是黑盒的,我怎么知道这个任务正在执行什么操作?有没有什么好办法帮我去理解 flink sql 的运行机制?

  4. 理解误区:在理解 flink sql 的运算机制上有哪些误区?

  5. :flink sql 一般都有啥坑?提前了解帮我们避免踩坑。

就是上面这些想法,会让很多想在公司内部引入 flink sql 的同学望而却步。

3.目标篇-本文能帮助大家了解 flink sql 什么?

来看看本文的目标:

  1. 场景问题:帮大家理解哪些场景是非常适合 flink sql 的

  2. 语法问题:帮大家简单熟悉 flink sql 的语法

  3. 运行问题:使用一条简单的 query sql 看看其运行起来的过程,其运行的机制

  4. 理解误区:运算机制上的常见误区

  5. 坑:看看 sql 一般会有啥坑

由于一篇文章不能覆盖所有概念,本文主要介绍一些最简单的 ETL,聚合场景,主要集中于前三点。

后两点在后续系列文章中会按照场景详细展开。

4.实战篇-简单的 query 案例和运行原理

4.1.场景问题:有哪些场景适合 flink sql?

不装了,我坦白了,flink sql 其实很适合干的活就是 dwd 清洗,dws 聚合。

此处主要针对实时数仓的场景来说。flink sql 能干 dwd 清洗,dws 聚合,基本上实时数仓的大多数场景都能给覆盖了。

flink sql 牛逼!!!

但是!!!

经过博主使用 flink sql 经验来看,并不是所有的 dwd,dws 聚合场景都适合 flink sql(截止发文阶段来说)!!!

其实这些目前不适合 flink sql 的场景总结下来就是在处理上比 datastream 还是会有一定的损失。

先总结下使用场景:

1. dwd:简单的清洗、复杂的清洗、维度的扩充、各种 udf 的使用

2. dws:各类聚合

然后分适合的场景和不适合的场景来说,因为只这一篇不能覆盖所有的内容,所以本文此处先大致给个结论,之后会结合具体的场景详细描述。

  • 适合的场景:
  1. 简单的 dwd 清洗场景

  2. 全场景的 dws 聚合场景

  • 目前不太适合的场景:
  1. 复杂的 dwd 清洗场景:举例比如使用了很多 udf 清洗,尤其是使用很多的 json 类解析清洗

  2. 关联维度场景:举例比如 datastream 中经常会有攒一批数据批量访问外部接口的场景,flink sql 目前对于这种场景虽然有 localcache、异步访问能力,但是依然还是一条一条访问外部缓存,这样相比批量访问还是会有性能差距。

4.2.语法\运行问题

其实总结来说,对于接触过 sql 的同学来说,除了 flink sql 中窗口聚合类的写法来说,其他的 sql 语法都是相同的,很容易理解。

本节会针对具体的案例进行详细介绍。

4.2.1.ETL

最简单的 ETL 类型任务。

SELECT?select_list?FROM?table_expression?[?WHERE?boolean_expression?]

1.场景:简单的 dwd 清洗过滤场景

源码公众号后台回复不会连最适合 flink sql 的 ETL 和 group agg 场景都没见过吧获取。

数据源表:

CREATE?TABLE?source_table?(
????order_number?BIGINT,
????price????????DECIMAL(32,2)
)?WITH?(
??'connector'?=?'datagen',
??'rows-per-second'?=?'10',
??'fields.order_number.min'?=?'10',
??'fields.order_number.max'?=?'11'
)

数据汇表:

CREATE?TABLE?sink_table?(
????order_number?BIGINT,
????price????????DECIMAL(32,2)
)?WITH?(
??'connector'?=?'print'
)

ETL 逻辑:

insert?into?sink_table
select?*?from?source_table
where?order_number?=?10

2.运行:可以看到,其实在 flink sql 任务中,其会把对应的处理逻辑给写到算子名称上面。

Notes - 观察 flink sql 技巧 1:

这个其实就是我们观察 flink sql 任务的第一个技巧。如果你想知道你的 flink 任务在干啥,第一反应是去 flink webui 看看这个任务目前在做什么。包括算子名称都会给直接展示给我们目前哪个算子在干啥事情,在处理啥逻辑

5

3.结果

+I[10,?337546916355686018150362513408.00]
+I[10,?734895198061906189720381030400.00]
+I[10,?496632591763800912960818249728.00]
+I[10,?495090465926828588045441171456.00]
+I[10,?167305033642317182838130081792.00]
+I[10,?409466913112794578407573684224.00]
+I[10,?894352160414515330502514180096.00]
+I[10,?680063350384451712068576346112.00]
+I[10,?50807402446574997641386524672.00]
+I[10,?646597093362022945955245981696.00]
+I[10,?233317961584082024331537809408.00]
...

4.原理:

先看一下一个 flink sql 任务的入口执行逻辑。

首先看看建表语句的执行和 query 语句执行的逻辑有什么不同。

可以发现执行到 executeInternal 时会针对具体的 operation 来执行不同的操作。

执行建表操作就是具体的 CreateTableOperation 时,会将表的信息保存到 catalogManager

8

执行 query 操作就是具体的 ModifyOperation 时,会将对应的逻辑转换成对应的 Transformation

9

Transformation 中就包含了执行的整体逻辑以及对应要执行的 sql 代码内容。

10

接下来我们详细看下对应的 transform 中包含了什么内容。

首先是最外层 LegacySinkTransformation,即 sink 算子,如图就是 print sink function。比较好理解。

11

然后是中间层 OneInputTransformation,即 sql 中过滤和转换操作(select * from source_table where order_number = 10),如图是代码生成的具体过滤和转换逻辑。

12

生成的代码就在 GeneratedOperator 中的 code 字段。我们将对应的 code 复制到一个新的文件夹中。

13

这个算子是直接继承了 OneInputStreamOperator 进行直接执行逻辑,跳过了 datastream 那一层。

14

我们来看看最重要的 processElement 逻辑,具体字段解释和执行逻辑如图所示。

Notes - 观察 flink sql 技巧 2:

这个其实就是我们观察 flink sql 任务的第二个技巧。如果你想知道你的 flink 任务执行了什么代码,就去看看 sql 最后转换成的 transformation 里面具体要执行哪些操作。

4.2.2.去重场景

1.场景:最简单的去重场景

源码公众号后台回复不会连最适合 flink sql 的 ETL 和 group agg 场景都没见过吧获取。

数据源:

CREATE?TABLE?source_table?(
????string_field?STRING
)?WITH?(
??'connector'?=?'datagen',
??'rows-per-second'?=?'10',
??'fields.string_field.length'?=?'3'
)

数据汇:

CREATE?TABLE?sink_table?(
????string_field?STRING
)?WITH?(
??'connector'?=?'print'
)

数据处理:

insert?into?sink_table
select?distinct?string_field
from?source_table

2.运行:可以看到,其实在 flink sql 任务中,其会把对应的处理逻辑给写到算子名称上面。

17

3.上面这个案例的结果:

+I[cd3]
+I[8fc]
+I[b0c]
+I[1d8]
+I[e28]
+I[c5f]
+I[e7d]
+I[dfa]
+I[1fe]
...

4.原理:

此处我们只关注和上面不同的逻辑。

第一个就是 PartitionTransform 中的 KeyGroupStreamPartitioner,就是对应的分区逻辑。来看看生成代码的逻辑。

其中做 shuffle 逻辑时,是按照 string_field 作为 key 进行 shuffle。

第二个就是 OneInputTransformation 中的 KeyedProcessOperator,就是对应的去重逻辑。

可以看到生成的 function 中只有这三段代码是业务逻辑代码,但是其中的 RowData 初始化大小都是 0。那么到底是哪里做的去重逻辑呢?

24

我们跟一下处理逻辑会发现。去重逻辑主要集中在 GroupAggFunction#processElement

25

4.2.3.group 聚合场景

4.2.3.1.简单聚合场景

1.场景:最简单的聚合场景

源码公众号后台回复不会连最适合 flink sql 的 ETL 和 group agg 场景都没见过吧获取。

count,sum,avg,max,min 等:

数据源:

CREATE?TABLE?source_table?(
????order_id?STRING,
????price?BIGINT
)?WITH?(
??'connector'?=?'datagen',
??'rows-per-second'?=?'10',
??'fields.order_id.length'?=?'1',
??'fields.price.min'?=?'1',
??'fields.price.max'?=?'1000000'
)

数据汇:

CREATE?TABLE?sink_table?(
????order_id?STRING,
????count_result?BIGINT,
????sum_result?BIGINT,
????avg_result?DOUBLE,
????min_result?BIGINT,
????max_result?BIGINT
)?WITH?(
??'connector'?=?'print'
)

数据处理逻辑:

insert?into?sink_table
select?order_id,
???????count(*)?as?count_result,
???????sum(price)?as?sum_result,
???????avg(price)?as?avg_result,
???????min(price)?as?min_result,
???????max(price)?as?max_result
from?source_table
group?by?order_id

2.运行:

3.上面这个案例的结果:

+I[1,?1,?415300,?415300.0,?415300,?415300]
+I[d,?1,?416878,?416878.0,?416878,?416878]
+I[0,?1,?120837,?120837.0,?120837,?120837]
+I[c,?1,?337749,?337749.0,?337749,?337749]
+I[7,?1,?387053,?387053.0,?387053,?387053]
+I[8,?1,?387042,?387042.0,?387042,?387042]
+I[2,?1,?546317,?546317.0,?546317,?546317]
+I[e,?1,?22131,?22131.0,?22131,?22131]
+I[9,?1,?651731,?651731.0,?651731,?651731]
-U[0,?1,?120837,?120837.0,?120837,?120837]
+U[0,?2,?566664,?283332.0,?120837,?445827]
+I[b,?1,?748659,?748659.0,?748659,?748659]
-U[7,?1,?387053,?387053.0,?387053,?387053]
+U[7,?2,?1058056,?529028.0,?387053,?671003]

4.原理:

来瞅一眼 transformation。

28

还是和之前的逻辑一样,跟一下 GroupAggFunction 的逻辑。如下图,有五个执行步骤执行计算。

33

再看最终生成的 function 代码逻辑。

31

29

首先看看 count 怎么算的。

30

sum 怎么算的。

32

4.2.3.2.去重聚合场景

1.场景:去重聚合场景

数据源:

CREATE?TABLE?source_table?(
????dim?STRING,
????user_id?BIGINT
)?WITH?(
??'connector'?=?'datagen',
??'rows-per-second'?=?'10',
??'fields.dim.length'?=?'1',
??'fields.user_id.min'?=?'1',
??'fields.user_id.max'?=?'1000000'
)

数据汇:

CREATE?TABLE?sink_table?(
????dim?STRING,
????uv?BIGINT
)?WITH?(
??'connector'?=?'print'
)

数据处理:

insert?into?sink_table
select?dim,
???????count(distinct?user_id)?as?uv
from?source_table
group?by?dim

2.运行:

35

3.上面这个案例的结果:

+U[9,?3097]
-U[a,?3054]
+U[a,?3055]
-U[8,?3030]
+U[8,?3031]
-U[4,?3137]
+U[4,?3138]
-U[6,?3139]
+U[6,?3140]
-U[0,?3082]
+U[0,?3083]

4.原理:

此处只看和之前的案例不一样的地方。

4.2.3.3.语法糖

1.grouping sets

多维计算。相当于语法糖,用户可以根据自己的场景去指定自己想要的维度组合。

数据汇:

CREATE?TABLE?sink_table?(
????supplier_id?STRING,
????product_id?STRING,
????total?BIGINT
)?WITH?(
??'connector'?=?'print'
)

数据处理逻辑:

insert?into?sink_table
SELECT
?????supplier_id,
?????product_id,
?????COUNT(*)?AS?total
FROM?(VALUES
?????('supplier1',?'product1',?4),
?????('supplier1',?'product2',?3),
?????('supplier2',?'product3',?3),
?????('supplier2',?'product4',?4))
AS?Products(supplier_id,?product_id,?rating)
GROUP?BY?GROUPING?SETS?((supplier_id,?product_id),?(supplier_id),?())

其结果等同于:

insert?into?sink_table
SELECT
?????supplier_id,
?????product_id,
?????COUNT(*)?AS?total
FROM?(VALUES
?????('supplier1',?'product1',?4),
?????('supplier1',?'product2',?3),
?????('supplier2',?'product3',?3),
?????('supplier2',?'product4',?4))
AS?Products(supplier_id,?product_id,?rating)
GROUP?BY?supplier_id,?product_id
UNION?ALL
SELECT
?????supplier_id,
?????cast(null?as?string)?as?product_id,
?????COUNT(*)?AS?total
FROM?(VALUES
?????('supplier1',?'product1',?4),
?????('supplier1',?'product2',?3),
?????('supplier2',?'product3',?3),
?????('supplier2',?'product4',?4))
AS?Products(supplier_id,?product_id,?rating)
GROUP?BY?supplier_id
UNION?ALL
SELECT
?????cast(null?as?string)?AS?supplier_id,
?????cast(null?as?string)?AS?product_id,
?????COUNT(*)?AS?total
FROM?(VALUES
?????('supplier1',?'product1',?4),
?????('supplier1',?'product2',?3),
?????('supplier2',?'product3',?3),
?????('supplier2',?'product4',?4))
AS?Products(supplier_id,?product_id,?rating)

结果如下:

+I[supplier1,?product1,?1]
+I[supplier1,?null,?1]
+I[null,?null,?1]
+I[supplier1,?product2,?1]
-U[supplier1,?null,?1]
+U[supplier1,?null,?2]
-U[null,?null,?1]
+U[null,?null,?2]
+I[supplier2,?product3,?1]
+I[supplier2,?null,?1]
-U[null,?null,?2]
+U[null,?null,?3]
+I[supplier2,?product4,?1]
-U[supplier2,?null,?1]
+U[supplier2,?null,?2]
-U[null,?null,?3]
+U[null,?null,?4]

grouping sets 能帮助我们在多维场景下,减少很多冗余代码。关于 grouping sets 原理后面的系列文章会介绍。

38

2.rollup

rollup 是上卷计算的一种简化写法。比如可以把 GROUPING SETS ((supplier_id, product_id), (supplier_id), ()) 简化为 ROLLUP (supplier_id, product_id)

数据汇:

CREATE?TABLE?sink_table?(
????supplier_id?STRING,
????product_id?STRING,
????total?BIGINT
)?WITH?(
??'connector'?=?'print'
)

数据处理逻辑:

SELECT?supplier_id,?rating,?COUNT(*)
FROM?(VALUES
????('supplier1',?'product1',?4),
????('supplier1',?'product2',?3),
????('supplier2',?'product3',?3),
????('supplier2',?'product4',?4))
AS?Products(supplier_id,?product_id,?rating)
GROUP?BY?ROLLUP?(supplier_id,?product_id)

其结果等同于:

SELECT?supplier_id,?rating,?product_id,?COUNT(*)
FROM?(VALUES
????('supplier1',?'product1',?4),
????('supplier1',?'product2',?3),
????('supplier2',?'product3',?3),
????('supplier2',?'product4',?4))
AS?Products(supplier_id,?product_id,?rating)
GROUP?BY?GROUPING?SET?(
????(?supplier_id,?product_id?),
????(?supplier_id?????????????),
????(?????????????????????????)
)

结果如下:

+I[supplier1,?product1,?1]
+I[supplier1,?null,?1]
+I[null,?null,?1]
+I[supplier1,?product2,?1]
-U[supplier1,?null,?1]
+U[supplier1,?null,?2]
-U[null,?null,?1]
+U[null,?null,?2]
+I[supplier2,?product3,?1]
+I[supplier2,?null,?1]
-U[null,?null,?2]
+U[null,?null,?3]
+I[supplier2,?product4,?1]
-U[supplier2,?null,?1]
+U[supplier2,?null,?2]
-U[null,?null,?3]
+U[null,?null,?4]

39

5.CUBE 计算

源码公众号后台回复不会连最适合 flink sql 的 ETL 和 group agg 场景都没见过吧获取。

cube 相当于是一种覆盖了所有维度组合聚合计算。比如 group by a, b, c。其会将 a, b, c 三个维度的所有维度组合进行 group by。

数据汇:

CREATE?TABLE?sink_table?(
????supplier_id?STRING,
????product_id?STRING,
????total?BIGINT
)?WITH?(
??'connector'?=?'print'
)

数据处理逻辑:

SELECT?supplier_id,?rating,?product_id,?COUNT(*)
FROM?(VALUES
????('supplier1',?'product1',?4),
????('supplier1',?'product2',?3),
????('supplier2',?'product3',?3),
????('supplier2',?'product4',?4))
AS?Products(supplier_id,?product_id,?rating)
GROUP?BY?CUBE?(supplier_id,?product_id)

它等同于

SELECT?supplier_id,?rating,?product_id,?COUNT(*)
FROM?(VALUES
????('supplier1',?'product1',?4),
????('supplier1',?'product2',?3),
????('supplier2',?'product3',?3),
????('supplier2',?'product4',?4))
AS?Products(supplier_id,?product_id,?rating)
GROUP?BY?GROUPING?SET?(
????(?supplier_id,?product_id?),
????(?supplier_id?????????????),
????(??????????????product_id?),
????(?????????????????????????)
)

结果如下:

+I[supplier1,?product1,?1]
+I[supplier1,?null,?1]
+I[null,?product1,?1]
+I[null,?null,?1]
+I[supplier1,?product2,?1]
-U[supplier1,?null,?1]
+U[supplier1,?null,?2]
+I[null,?product2,?1]
-U[null,?null,?1]
+U[null,?null,?2]
+I[supplier2,?product3,?1]
+I[supplier2,?null,?1]
+I[null,?product3,?1]
-U[null,?null,?2]
+U[null,?null,?3]
+I[supplier2,?product4,?1]
-U[supplier2,?null,?1]
+U[supplier2,?null,?2]
+I[null,?product4,?1]
-U[null,?null,?3]
+U[null,?null,?4]

40

5.总结与展望篇

本文主要介绍了 ETL,group agg 聚合类指标的一些常见场景案例以及其底层运行原理。我们可以发现 flink sql 的语法其实和 hive sql,mysql 啥的语法都是基本一致的。所以上手 flink sql 时,语法基本不会成为我们的障碍。

而且也介绍了在查看 flink sql 任务时的一些技巧:

  1. 去 flink webui 看看这个任务目前在做什么。包括算子名称都会给直接展示给我们目前哪个算子在干啥事情,在处理啥逻辑。

  2. 如果你想知道你的 flink 任务执行了什么代码,就去看看 sql 最后转换成的 transformation 里面具体要执行哪些操作。

后续文章会继续介绍 flink sql 窗口聚合,一些理解误区,和坑之类的案例。

希望大家能持续关注。支持博主。喜欢的请关注 + 点赞 + 再看。

往期推荐

[

flink sql 知其所以然(六)| flink sql 约会 calcite(看这篇就够了)

](http://mp.weixin.qq.com/s?__biz=MzkxNjA1MzM5OQ==&mid=2247489112&idx=1&sn=21e86dab0e20da211c28cd0963b75ee2&chksm=c1549aa0f62313b6674833cd376b2a694752a154a63532ec9446c9c3013ef97f2d57b4e2eb64&scene=21#wechat_redirect)

[

flink sql 知其所以然(五)| 自定义 protobuf format

](http://mp.weixin.qq.com/s?__biz=MzkxNjA1MzM5OQ==&mid=2247488994&idx=1&sn=20236350b1c8cfc4ec5055687b35603d&chksm=c154991af623100c46c0ed224a8264be08235ab30c9f191df7400e69a8ee873a3b74859fb0b7&scene=21#wechat_redirect)

[

flink sql 知其所以然(四)| sql api 类型系统

](http://mp.weixin.qq.com/s?__biz=MzkxNjA1MzM5OQ==&mid=2247488788&idx=1&sn=0127fd4037788762a0401313b43b0ea5&chksm=c15499ecf62310fa747c530f722e631570a1b0469af2a693e9f48d3a660aa2c15e610653fe8c&scene=21#wechat_redirect)

[

flink sql 知其所以然(三)| 自定义 redis 数据汇表(附源码)

](http://mp.weixin.qq.com/s?__biz=MzkxNjA1MzM5OQ==&mid=2247488720&idx=1&sn=5695e3691b55a7e40814d0e455dbe92a&chksm=c1549828f623113e9959a382f98dc9033997dd4bdcb127f9fb2fbea046545b527233d4c3510e&scene=21#wechat_redirect)

[

flink sql 知其所以然(二)| 自定义 redis 数据维表(附源码)

](http://mp.weixin.qq.com/s?__biz=MzkxNjA1MzM5OQ==&mid=2247488635&idx=1&sn=41817a078ef456fb036e94072b2383ff&chksm=c1549883f623119559c47047c6d2a9540531e0e6f0b58b155ef9da17e37e32a9c486fe50f8e3&scene=21#wechat_redirect)

[

flink sql 知其所以然(一)| source\sink 原理

](http://mp.weixin.qq.com/s?__biz=MzkxNjA1MzM5OQ==&mid=2247488486&idx=1&sn=b9bdb56e44631145c8cc6354a093e7c0&chksm=c1549f1ef623160834e3c5661c155ec421699fc18c57f2c63ba14d33bab1d37c5930fdce016b&scene=21#wechat_redirect)

更多 Flink 实时大数据分析相关技术博文,视频。后台回复?“flink” 或 “flink sql”?获取。

点个赞+在看,感谢您的肯定?👇
  大数据 最新文章
实现Kafka至少消费一次
亚马逊云科技:还在苦于ETL?Zero ETL的时代
初探MapReduce
【SpringBoot框架篇】32.基于注解+redis实现
Elasticsearch:如何减少 Elasticsearch 集
Go redis操作
Redis面试题
专题五 Redis高并发场景
基于GBase8s和Calcite的多数据源查询
Redis——底层数据结构原理
上一篇文章      下一篇文章      查看所有文章
加:2021-09-06 11:13:37  更:2021-09-06 11:15:21 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 -2024/11/23 20:09:58-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码