IT数码 购物 网址 头条 软件 日历 阅读 图书馆
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
图片批量下载器
↓批量下载图片,美女图库↓
图片自动播放器
↓图片自动播放器↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁
 
   -> 大数据 -> Canal -> 正文阅读

[大数据]Canal

第一章 初识 Canal

1、什么是canal

Canal 是用 Java 开发的基于数据库增量日志解析,提供增量数据订阅&消费的中间件。


Canal 主要支持了 MySQL 的 Binlog 解析,解析完成后才利用 Canal Client 来处理获得的相关数据。(数据库同步需要阿里的 Otter 中间件,基于 Canal)。
在这里插入图片描述

2、什么是Binlog

MySql 的二进制日志可以说是Mysql 最重要的日志了,它记录了所有 DDL 和 DML(除了数据查询语句)语句,以事件形式记录,包含语句执行的消耗的时间,Mysql 的二进制日志是事务安全型的。一般来说:开启二进制日志大概会有 1% 的性能消耗。二进制有两个最重要的使用场景


其一: Mysql Replication 在Master 端开启 Binlog,Master 把它的二进制日志传递给 Slaves 来达到 Master-Slave 数据一致性的目的。


其二: 就是数据恢复了,通过使用 Mysql Binlog 工具来使数据恢复。

二进制日志包含两类文件:二进制日志索引文件(文件名后缀为 .index)用于记录所有二进制文件,二进制日志文件(文件名后缀为 .00000*)记录数据库所有 DDL 和 DML(除了数据查询语句)语句事件。

3、Binlog 的分类

Mysql Binlog 的格式有三种,分别是 STATEMENT,MIXED,ROW。在配置文件中可以选择配置 binlog_format=statement|mixed|row.。三种格式区别:


1)statement:语句级,binlog会记录每次一执行写操作的语句。相对 row 模式节省空间,但是可能产生不一致性,比如:“update tt set create_date=now()”,如果用binlog进行恢复,由于执行时间不同可能产生的数据就不同。

  	优点:节省空间
  	缺点:有可能造成数据不一致

2)row:行级,binlog 会记录每次操作后每行记录的变化。

  	优点:保持数据的绝对一致性。因为不管 sql 是什么,引用了什么函数,它只记录执行后的结果。
  	缺点:占用较大空间

3)mixed:statement 的升级版,一定程度上解决了,因为一些情况造成的 statement 模式不一致问题,默认还是statement,在某些情况下譬如: :当函数中包含 UUID() 时;包含
AUTO_INCREMENT 字段的表被更新时;执行 INSERT DELAYED 语句时;用 UDF 时;会按照 row 的方式进行处理

  	优点:节省空间,同时兼顾了一定的一致性。
  	缺点:还有些极个别情况依旧会造成不一致,另外 statement 和 mixed 对于需要对binlog 的监控的情况都不方便。

综合上面对比,Canal 想做监控分析,选择 row 格式比较合适。

4、Canal 工作原理

4.1 Mysql 主从复制过程

1)Master 主库将改变记录,写到二进制日志(Binary Log)中;


2)Slave 从库向 MySQL Master 发送 dump 协议,将 Master 主库的 binary log events 拷贝到它的中继日志(relay log);


3)Slave 从库读取并重做中继日志中的事件,将改变的数据同步到自己的数据库

在这里插入图片描述

4.2 Canal 的工作原理

很简单,就是把自己伪装成 Slave ,假装从 Master 复制数据

4.3 Canal 的使用场景

1)原始场景:阿里 Otter 中间件一部分
Otter 是阿里用于进行异地数据库之间的同步框架,Canal是其中一部分。
在这里插入图片描述


2)常见场景一:更新缓存
在这里插入图片描述


3)常见场景二:抓取业务表的新增变化数据,用于制作实时统计(我们就是这种场景)

第二章 Mysql 准备

1、创建数据库

在这里插入图片描述

2、创建表

CREATE TABLE user_info(
`id` VARCHAR(255),
`name` VARCHAR(255),
`sex` VARCHAR(255)
);

3、修改配置文件开启 Binlog

vi /etc/my.cnf

在这里插入图片描述
注意:binlog-do-db 根据自己的情况进行修改,指定具体要同步的数据库,如果不配置则表示所有数据库均开启 Binlog

4、重启 MySQL 使配置生效

 systemctl restart mysqld

到 /var/lib/mysql 目录下查看初始文件大小 154

在这里插入图片描述

5、测试 Binlog 是否开启

插入数据

INSERT INTO user_info VALUES('1000','zhangsan','male');

再次查看 index 文件大小
在这里插入图片描述

6、赋权限

在 mysql 中执行

set global validate_password_length=4;

set global validate_password_policy=0;

GRANT SELECT, REPLICATION SLAVE, REPLICATION CLIENT ON *.* TO 'canal'@'%' IDENTIFIED BY 'canal';

第三章 Canal 下载和安装

1、下载并解压 Jar 包

下载地址 https://github.com/alibaba/canal/releases

2、查看 canal.properties 的配置(不做修改)

在这里插入图片描述

说明:这个文件是 canal 的基本通用配置,canal 端口号默认就是 11111,修改 canal 的输出 model,默认 tcp,改为输出到 kafka多实例配置如果创建多个实例,通过前面 canal 架构,我们可以知道,一个 canal 服务中可以有多个 instance,conf/下的每一个 example 即是一个实例,每个实例下面都有独立的配置文件。默认只有一个实例 example,如果需要多个实例处理不同的 MySQL 数据的话,直接拷贝出多个 example,并对其重新命名,命名和配置文件中指定的名称一致,然后修改canal.properties 中的 canal.destinations=实例 1,实例 2,实例 3。

3、修改 instance.properties 的配置

我们这里只读取一个 MySQL 数据,所以只有一个实例,这个实例的配置文件在conf/example 目录下
1)配置 MySQL 服务器地址
2)配置连接 MySQL 的用户名和密码,默认就是我们前面授权的 canal

在这里插入图片描述

第四章 实时监控测试

1、TCP 模式测试

1.1 创建 canal 项目

1.2 导入依赖

 <dependency>
            <groupId>com.alibaba.otter</groupId>
            <artifactId>canal.client</artifactId>
            <version>1.1.3</version>
        </dependency>
        <dependency>
            <groupId>org.apache.kafka</groupId>
            <artifactId>kafka-clients</artifactId>
            <version>2.4.1</version>
</dependency>

1.3 通用监视类 ——CanalClient

Canal 封装的数据结构

在这里插入图片描述
在 canal 模块下创建 com.ausware.app 包,并在包下创建 CanalClient(java 代码)
代码如下:

/**
 * canal客户端
 * @author Yao
 * @Date: 2022/2/15 15:28
 */
public class CanalClient {
    public static void main(String[] args) throws InterruptedException, InvalidProtocolBufferException {
        //连接Canal服务器
        CanalConnector canalConnector = CanalConnectors.newSingleConnector(new InetSocketAddress("node1", 11111), "example", "", "");
        while (true){
            canalConnector.connect();
            //订阅数据库 .* 代表该数据库下所有表
            canalConnector.subscribe("canal_test.*");
            //单次拉取1000条变化数据
            Message message = canalConnector.get(100);
            List<CanalEntry.Entry> entries = message.getEntries();
            if (CollectionUtils.isEmpty(entries)){
                System.out.println("本次拉取数据为空,稍后拉去....");
                TimeUnit.SECONDS.sleep(2);
            }else {
                for (CanalEntry.Entry entry : entries) {
                    //获取表名
                    String tableName = entry.getHeader().getTableName();
                    //
                    CanalEntry.EntryType entryType = entry.getEntryType();
                    //获取序列化后的数据
                    ByteString storeValue = entry.getStoreValue();
                    //确保类型为ROWDATA
                    if (CanalEntry.EntryType.ROWDATA.equals(entryType)){
                        //对数据进行反序列化
                        CanalEntry.RowChange rowChange = CanalEntry.RowChange.parseFrom(storeValue);
                        List<CanalEntry.RowData> rowDataList = rowChange.getRowDatasList();
                        for (CanalEntry.RowData rowData : rowDataList) {
                            JSONObject beforeData = new JSONObject();
                            List<CanalEntry.Column> beforeColumnsList = rowData.getBeforeColumnsList();
                            for (CanalEntry.Column column : beforeColumnsList) {
                                beforeData.put(column.getName(), column.getValue());
                            }
                            JSONObject afterData = new JSONObject();
                            List<CanalEntry.Column> afterColumnsList = rowData.getAfterColumnsList();
                            for (CanalEntry.Column column : afterColumnsList) {
                                afterData.put(column.getName(), column.getValue());
                            }
                            System.out.println("表名:"+tableName+
                                    ",entryType:"+entryType+
                                    ",before"+beforeData+
                                    ",after"+afterData);
                        }
                    }
                }
            }
        }
    }

2、kafka 模式测试

1.修改 canal.properties 中 canal 的输出 model,默认 tcp,改为输出到 kafka
在这里插入图片描述

2.修改 Kafka 集群的地址
在这里插入图片描述

3.修改 instance.properties 输出到 Kafka 的主题以及分区数
在这里插入图片描述

注意:默认还是输出到指定 Kafka 主题的一个 kafka 分区,因为多个分区并行可能会打乱 binlog 的顺序 , 如 果 要 提 高 并 行 度 , 首 先 设 置 kafka 的 分 区 数 >1, 然 后 设 置canal.mq.partitionHash 属性

4.启动 Canal

./start.sh

5.看到 CanalLauncher 你表示启动成功,同时会创建 canal_test 主题
在这里插入图片描述

如果没有正常启动,查看日志报一下错误
在这里插入图片描述
打开 start.sh 文件修改参数,重启

str=`file -L $JAVA | grep 64-bit`
if [ -n "$str" ]; then
    JAVA_OPTS="-server -Xms2048m -Xmx3072m -Xmn1024m -XX:SurvivorRatio=2 -Xss256k"
else
    JAVA_OPTS="-server -Xms1024m -Xmx1024m -XX:NewSize=256m -XX:MaxNewSize=256m "
fi

6.启动 Kafka 消费客户端测试,查看消费情况
7.向 MySQL 中插入数据后查看消费者控制台
在这里插入图片描述

  大数据 最新文章
实现Kafka至少消费一次
亚马逊云科技:还在苦于ETL?Zero ETL的时代
初探MapReduce
【SpringBoot框架篇】32.基于注解+redis实现
Elasticsearch:如何减少 Elasticsearch 集
Go redis操作
Redis面试题
专题五 Redis高并发场景
基于GBase8s和Calcite的多数据源查询
Redis——底层数据结构原理
上一篇文章      下一篇文章      查看所有文章
加:2022-04-04 12:18:09  更:2022-04-04 12:21:40 
 
开发: C++知识库 Java知识库 JavaScript Python PHP知识库 人工智能 区块链 大数据 移动开发 嵌入式 开发工具 数据结构与算法 开发测试 游戏开发 网络协议 系统运维
教程: HTML教程 CSS教程 JavaScript教程 Go语言教程 JQuery教程 VUE教程 VUE3教程 Bootstrap教程 SQL数据库教程 C语言教程 C++教程 Java教程 Python教程 Python3教程 C#教程
数码: 电脑 笔记本 显卡 显示器 固态硬盘 硬盘 耳机 手机 iphone vivo oppo 小米 华为 单反 装机 图拉丁

360图书馆 购物 三丰科技 阅读网 日历 万年历 2024年11日历 -2024/11/24 4:44:27-

图片自动播放器
↓图片自动播放器↓
TxT小说阅读器
↓语音阅读,小说下载,古典文学↓
一键清除垃圾
↓轻轻一点,清除系统垃圾↓
图片批量下载器
↓批量下载图片,美女图库↓
  网站联系: qq:121756557 email:121756557@qq.com  IT数码