当前位置: 首页>大数据>正文

【Maxwell采集Mysql数据到kafka】

Maxwell的工作原理是实时读取MySQL数据库的二进制日志(Binlog),从中获取变更数据,再将变更数据以JSON格式发送至Kafka等流处理平台。

MySQL二进制日志
二进制日志(Binlog)是MySQL服务端非常重要的一种日志,它会保存MySQL数据库的所有数据变更记录。Binlog的主要作用包括主从复制和数据恢复。Maxwell的工作原理和主从复制密切相关。

MySQL主从复制
MySQL的主从复制,就是用来建立一个和主数据库完全一样的数据库环境,这个数据库称为从数据库。
主从复制的应用场景如下:
(1)做数据库的热备:主数据库服务器故障后,可切换到从数据库继续工作。
(2)读写分离:主数据库只负责业务数据的写入操作,而多个从数据库只负责业务数据的查询工作,在读多写少场景下,可以提高数据库工作效率。
主从复制的工作原理如下:
(1)Master主库将数据变更记录,写到二进制日志(binary log)中
(2)Slave从库向mysql master发送dump协议,将master主库的binary log events拷贝到它的中继日志(relay log)
(3)Slave从库读取并回放中继日志中的事件,将改变的数据同步到自己的数据库。

【Maxwell采集Mysql数据到kafka】,第1张

Maxwell原理
很简单,就是将自己伪装成slave,并遵循MySQL主从复制的协议,从master同步数据。

【Maxwell采集Mysql数据到kafka】,第2张
【Maxwell采集Mysql数据到kafka】,第3张
Maxwell部署

1)下载安装包https://github.com/zendesk/maxwell/releases/download/v1.29.2/maxwell-1.29.2.tar.gz
注:Maxwell-1.30.0及以上版本不再支持JDK1.8。
2)将安装包上传到hadoop102节点的/opt/software目录
3)将安装包解压至/opt/module
tar -zxvf maxwell-1.29.2.tar.gz -C /opt/module/
3)修改名称
mv maxwell-1.29.2/ maxwell

配置MySQL

1.启用MySQL Binlog,MySQL服务器的Binlog默认是未开启的,如需进行同步,需要先进行开启。

查看binlog是否开启:语句为:show variables like 'log_%';
看到log_bin对应的值是ON,所以我们知道binlog是开启的。

查看binlog类型,maxwell要求为row类型show variables like 'binlog_%';
可以看到 binlog_format=ROW

注:MySQL Binlog模式
Statement-based:基于语句,Binlog会记录所有写操作的SQL语句,包括insert、update、delete等。
优点: 节省空间
缺点: 有可能造成数据不一致,例如insert语句中包含now()函数。
Row-based:基于行,Binlog会记录每次写操作后被操作行记录的变化。
优点:保持数据的绝对一致性。
缺点:占用较大空间。
mixed:混合模式,默认是Statement-based,如果SQL语句可能导致数据不一致,就自动切换到Row-based。
Maxwell要求Binlog采用Row-based模式。

2.创建Maxwell所需数据库和用户
Maxwell需要在MySQL中存储其运行过程中的所需的一些数据,包括binlog同步的断点位置(Maxwell支持断点续传)等等,故需要在MySQL为Maxwell创建数据库及用户。
1)创建数据库
msyql> CREATE DATABASE maxwell;
2)调整MySQL数据库密码级别
mysql> set global validate_password_policy=0;
mysql> set global validate_password_length=4;
3)创建Maxwell用户并赋予其必要权限
mysql> CREATE USER 'maxwell'@'%' IDENTIFIED BY 'maxwell';
mysql> GRANT ALL ON maxwell.* TO 'maxwell'@'%';
mysql> GRANT SELECT, REPLICATION CLIENT, REPLICATION SLAVE ON *.* TO 'maxwell'@'%';
mysql> FLUSH PRIVILEGES;

配置Maxwell

1)修改Maxwell配置文件名称
cd /opt/module/maxwell
cp config.properties.example config.properties
2)修改Maxwell配置文件
vim config.properties

# Maxwell数据发送目的地,可选配置有stdout|file|kafka|kinesis|pubsub|sqs|rabbitmq|redis
producer=kafka

# 目标Kafka集群地址
kafka.bootstrap.servers=hadoop102:9092

#目标Kafka topic,可静态配置,例如:maxwell,也可动态配置,例如:%{database}_%{table}
kafka_topic=maxwell
# kafka_topic=maxwell_%{database}_%{table}

#MySQL相关配置
host=hadoop102
user=maxwell
password=maxwell
jdbc_options=useSSL=false&serverTimezone=Asia/Shanghai
Maxwell使用

启动Maxwell
/opt/module/maxwell/bin/maxwell --config /opt/module/maxwell/config.properties --daemon

停止Maxwell
ps -ef | grep maxwell | grep -v grep | grep maxwell | awk '{print }' | xargs kill -9

Maxwell提供了bootstrap功能来进行历史数据的全量同步,命令如下:
/opt/module/maxwell/bin/maxwell-bootstrap --database gmall --table user_info --config /opt/module/maxwell/config.properties

使用kafka消费

patition = 0 , offset = 1, key = {"database":"gmall","table":"user_info","pk.id":6}, 
value = {"database":"gmall","table":"user_info","type":"insert","ts":1670257127,"xid":5267477,"commit":true,"data":{"id":6,"name":"44","age":44}}

patition = 0 , offset = 3, key = {"database":"gmall","table":"user_info","pk.id":7}, 
value = {"database":"gmall","table":"user_info","type":"update","ts":1670257302,"xid":5270519,"commit":true,"data":{"id":7,"name":"2","age":2},"old":{"name":null,"age":null}}

patition = 0 , offset = 4, key = {"database":"gmall","table":"user_info","pk.id":7}, 
value = {"database":"gmall","table":"user_info","type":"delete","ts":1670257540,"xid":5274322,"commit":true,"data":{"id":7,"name":"2","age":2}}
应用场景

实时数仓由Flink源源不断从Kafka当中读数据计算


https://www.xamrdz.com/bigdata/7qh1994358.html

相关文章: