Flink 使用介绍相关文档目录
CDC 简介
CDC即Change Data Capture 变更数据捕获,为Flink 1.11中一个新增功能。我们可以通过CDC得知数据源表的更新内容(包含Insert Update和Delete),并将这些更新内容作为数据流发送到下游系统。捕获到的数据操作具有一个标识符,分别对应数据的增加,修改和删除。
- +I:新增数据。
- -U:一条数据的修改会产生两个
U
标识符数据。其中-U
含义为修改前数据。 - +U:修改之后的数据。
- -D:删除的数据。
MySQL 启用binlog
接下来以MySQL CDC为例,和大家一起配置Flink MySQL CDC。
在使用CDC之前务必要开启MySQl的binlog。下面以MySQL 5.7版本为例说明。
修改my.cnf
文件,增加:
server_id=1
log_bin=mysql-bin
binlog_format=ROW
expire_logs_days=30
binlog_do_db=db_a
binlog_do_db=db_b
配置项的解释如下:
- server_id:MySQL5.7及以上版本开启binlog必须要配置这个选项。对于MySQL集群,不同节点的server_id必须不同。对于单实例部署则没有要求。
- log_bin:指定binlog文件名和储存位置。如果不指定路径,默认位置为
/var/lib/mysql/
。 - binlog_format:binlog格式。有3个值可以选择:ROW:记录哪条数据被修改和修改之后的数据,会产生大量日志。STATEMENT:记录修改数据的SQL,日志量较小。MIXED:混合使用上述两个模式。CDC要求必须配置为ROW。
- expire_logs_days:bin_log过期时间,超过该时间的log会自动删除。
- binlog_do_db:binlog记录哪些数据库。如果需要配置多个库,如例子中配置多项。切勿使用逗号分隔。
配置文件修改完毕后保存并重启MySQL。然后进入MySQL命令行,验证是否已启用binlog:
mysql> show variables like '%bin%';
+--------------------------------------------+--------------------------------+
| Variable_name | Value |
+--------------------------------------------+--------------------------------+
| bind_address | * |
| binlog_cache_size | 32768 |
| binlog_checksum | CRC32 |
| binlog_direct_non_transactional_updates | OFF |
| binlog_error_action | ABORT_SERVER |
| binlog_format | ROW |
| binlog_group_commit_sync_delay | 0 |
| binlog_group_commit_sync_no_delay_count | 0 |
| binlog_gtid_simple_recovery | ON |
| binlog_max_flush_queue_time | 0 |
| binlog_order_commits | ON |
| binlog_row_image | FULL |
| binlog_rows_query_log_events | OFF |
| binlog_stmt_cache_size | 32768 |
| binlog_transaction_dependency_history_size | 25000 |
| binlog_transaction_dependency_tracking | COMMIT_ORDER |
| innodb_api_enable_binlog | OFF |
| innodb_locks_unsafe_for_binlog | OFF |
| log_bin | ON |
| log_bin_basename | /var/lib/mysql/mysql-bin |
| log_bin_index | /var/lib/mysql/mysql-bin.index |
| log_bin_trust_function_creators | OFF |
| log_bin_use_v1_row_events | OFF |
| log_statements_unsafe_for_binlog | ON |
| max_binlog_cache_size | 18446744073709547520 |
| max_binlog_size | 1073741824 |
| max_binlog_stmt_cache_size | 18446744073709547520 |
| sql_log_bin | ON |
| sync_binlog | 1 |
+--------------------------------------------+--------------------------------+
29 rows in set (0.00 sec)
发现log_bin
的值为ON
。binlog配置已生效。
初始化MySQL 源数据表
到这里MySQL环境已经配置完毕。接下来开始准备测试表和数据。
create database demo character set utf8mb4;
use demo;
create table student(`id` int primary key, `name` varchar(128), `age` int);
这里创建了演示数据库demo和一张student表。
使用Java代码读取CDC数据流
到这一步我们开始使用Flink程序来获取CDC数据流。
使用传统MySQL 数据源方式
首先需要引入Flink Connector MySQL CDC依赖。
<dependency>
<groupId>com.alibaba.ververica</groupId>
<artifactId>flink-connector-mysql-cdc</artifactId>
<version>1.3.0</version>
</dependency>
然后使用Table API编写程序。这里我们仅仅将CDC数据流配置为数据源,然后将CDC数据流的内容打印出来。
val env = StreamExecutionEnvironment.getExecutionEnvironment
// 使用MySQLSource创建数据源
// 同时指定StringDebeziumDeserializationSchema,将CDC转换为String类型输出
val sourceFunction = MySQLSource.builder().hostname("your-ip").port(3306)
.databaseList("demo").username("root").password("123456")
.deserializer(new StringDebeziumDeserializationSchema).build();
// 单并行度打印,避免输出乱序
env.addSource(sourceFunction).print.setParallelism(1)
env.execute()
此时我们插入一条数据:
insert into student values(2, 'kate', 28);
可以看到程序有如下输出:
SourceRecord{sourcePartition={server=mysql_binlog_source}, sourceOffset={ts_sec=1618390979, file=mysql-bin.000003, pos=885, row=1, server_id=1, event=2}} ConnectRecord{topic='mysql_binlog_source.demo.student', kafkaPartition=null, key=Struct{id=2}, keySchema=Schema{mysql_binlog_source.demo.student.Key:STRUCT}, value=Struct{after=Struct{id=2,name=kate,age=28},source=Struct{version=1.4.1.Final,connector=mysql,name=mysql_binlog_source,ts_ms=1618390979000,db=demo,table=student,server_id=1,file=mysql-bin.000003,pos=1011,row=0,thread=2},op=c,ts_ms=1618391175254}, valueSchema=Schema{mysql_binlog_source.demo.student.Envelope:STRUCT}, timestamp=null, headers=ConnectHeaders(headers=)}
使用SQL
接下来我们使用更为简洁的SQL方式。
首先引入Flink SQL必须的依赖。需要注意的是,这里使用blink planner。本例子中使用Scala语言编写,所以引入了Scala相关依赖。
<dependency>
<groupId>org.apache.flink</groupId>
<artifactId>flink-table-api-scala-bridge_${scala.binary.version}</artifactId>
<version>${flink.version}</version>
</dependency>
<dependency>
<groupId>org.apache.flink</groupId>
<artifactId>flink-table-planner-blink_${scala.binary.version}</artifactId>
<version>${flink.version}</version>
</dependency>
<dependency>
<groupId>org.apache.flink</groupId>
<artifactId>flink-streaming-scala_${scala.binary.version}</artifactId>
<version>${flink.version}</version>
</dependency>
<dependency>
<groupId>com.alibaba.ververica</groupId>
<artifactId>flink-connector-mysql-cdc</artifactId>
<version>1.3.0</version>
</dependency>
编写如下所示的程序代码:
// 创建Blink Streaming的TableEnvironment
val bsSettings = EnvironmentSettings.newInstance().useBlinkPlanner().inStreamingMode().build()
val tableEnvironment = TableEnvironment.create(bsSettings)
// 创建表,connector使用mysql-cdc
tableEnvironment.executeSql("CREATE TABLE mysql_binlog (id INT NOT NULL, name STRING, age INT) WITH ('connector' = 'mysql-cdc', 'hostname' = '10.180.210.135', 'port' = '3306', 'username' = 'root', 'password' = '123456', 'database-name' = 'demo', 'table-name' = 'student')")
// 创建下游数据表,这里使用print类型的connector,将数据直接打印出来
tableEnvironment.executeSql("CREATE TABLE sink_table (id INT NOT NULL, name STRING, age INT) WITH ('connector' = 'print')")
// 将CDC数据源和下游数据表对接起来
tableEnvironment.executeSql("INSERT INTO sink_table SELECT id, name, age FROM mysql_binlog")
接下来可以执行insert
语句插入数据,控制台会打印出数据的变化。
例如我们依次执行:
insert into student values(1,'paul',20);
update student set age=30 where id=1;
delete from student where id=1;
在控制台可以得到如下输出:
+I(1,paul,20)
-U(1,paul,20)
+U(1,paul,30)
-D(1,paul,30)
使用SQL Client读取CDC
相比较创建一个Java项目以jar包的方式创建作业,Fllink提供了一个更为简单的方式:使用 SQL Client。接下来我们开始配置SQL Client环境。
配置Flink环境
在Flink SQL Client使用CDC功能之前,我们需要将相关依赖放入Flink目录。
访问https://mvnrepository.com/artifact/com.alibaba.ververica/flink-connector-mysql-cdc/
,下载flink-connector-mysql-cdc
jar包,复制到flink安装位置的lib
目录中。
启动Flink SQL Client
这里SQL Client在standalone集群上运行。
官网配置方式链接:https://ci.apache.org/projects/flink/flink-docs-master/docs/dev/table/sqlclient/#getting-started,简单来说是执行Flink安装目录如下两个命令:
./bin/start-cluster.sh
./bin/sql-client.sh embedded
如果没有问题,此时可以进入SQL Client。
执行如下SQL(和上一章"使用SQL"使用的语句相同):
CREATE TABLE mysql_binlog (
id INT NOT NULL,
name STRING,
age INT
) WITH (
'connector' = 'mysql-cdc',
'hostname' = 'localhost',
'port' = '3306',
'username' = 'root',
'password' = '123456',
'database-name' = 'demo',
'table-name' = 'student'
);
CREATE TABLE sink_table (
id INT NOT NULL,
name STRING,
age INT
) WITH (
'connector' = 'print'
);
INSERT INTO sink_table SELECT id, name, age FROM mysql_binlog;
然后在MySQL命令行执行些insert语句插入数据。需要注意的是sink_table
的输出是无法在SQL client上面查看的。需要打开Flink Web UI的Task Managers页面的stdout标签。可以找到类似如下输出:
+I(1,paul,20)
-U(1,paul,20)
+U(1,paul,30)
-D(1,paul,30)
Flink 已经成功捕获到MySQL的数据变更。
网友评论