使用嵌入式Debezium和SpringBoot捕获更改数据事件(CDC) - Sohan Ganapathy


在处理数据或复制数据源时,您可能已经听说过术语更改数据捕获(CDC)。顾名思义,“ CDC”是一种设计模式,可以持续识别并捕获数据的增量更改。该模式用于跨实时数据库到分析数据源或只读副本的实时数据复制。它还可以用于根据数据更改触发事件,例如OutBox模式
大多数现代数据库通过事务日志支持CDC 。事务日志是对数据库所做的所有更改的顺序记录,而实际数据包含在单独的文件中。
在这个博客中,我想集中精力使用CDC常用的框架,并将其嵌入SpringBoot。

什么是Debezium?
Debezium是为CDC构建的分布式平台,它使用数据库事务日志并在行级别更改时创建事件流。侦听这些事件的应用程序可以基于增量数据更改来执行所需的操作。
Debezium提供了一个连接器库,支持当今可用的各种数据库。这些连接器可以监视和记录数据库模式中的行级更改,然后将更改发布到诸如Kafka的流服务上。
通常,将一个或多个连接器部署到Kafka Connect 集群中,并配置为监视数据库并将数据更改事件发布到Kafka。分布式Kafka Connect群集可提供所需的容错能力和可伸缩性,从而确保所有已配置的连接器始终处于运行状态。

什么是嵌入式Debezium?
不需要容错和可靠性水平的应用程序,或者希望将运行整个平台的成本降至最低的应用程序,可以在应用程序中运行Debezium连接器。这是通过嵌入Debezium引擎并将连接器配置为在应用程序中运行来完成的。在发生数据更改事件时,连接器会将它们直接发送到应用程序。

使用SpringBoot运行Debezium
我们有一个SpringBoot应用程序“ Student CDC Relay”,它运行嵌入式Debezium,并追加包含“ Student”表的Postgres数据库的事务日志。当在“Student”表上执行诸如插入/更新/删除之类的数据库操作时,在SpringBoot应用程序中配置的Debezium连接器将在应用程序内调用一个方法。该方法对这些事件起作用,并在ElasticSearch上的Student索引中同步数据。
示例代码可在此处找到。

安装所需工具
可以在下面的docker-compose文件中安装所有必需的工具。这将在端口5432上启动Postgres数据库,并在端口9200(HTTP)和9300(Transport)上启动Elastic Search 。

version: "3.5"

services:
  # Install postgres and setup the student database.
  postgres:
    container_name: postgres
    image: debezium/postgres
    ports:
      - 5432:5432
    environment:
      - POSTGRES_DB=studentdb
      - POSTGRES_USER=user
      - POSTGRES_PASSWORD=password

  # Install Elasticsearch.
  elasticsearch:
    container_name: elasticsearch
    image: docker.elastic.co/elasticsearch/elasticsearch:6.8.0
    environment:
    - discovery.type=single-node
    ports:
      - 9200:9200
      - 9300:9300


我们使用镜像debezium/postgres,因为它预先构建了逻辑解码功能。这是一种机制,它允许提取已提交到事务日志的更改,从而使CDC成为可能。可以在此处找到将插件安装到Postgres的文档。

了解代码
第一步是为debezium-embedded和定义Maven依赖项debezium-connector。该示例从Postgres读取更改,因此我们使用Postgres连接器。

<dependency>
    <groupId>io.debezium</groupId>
    <artifactId>debezium-embedded</artifactId>
    <version>${debezium.version}</version>
</dependency>
<dependency>
    <groupId>io.debezium</groupId>
    <artifactId>debezium-connector-postgres</artifactId>
    <version>${debezium.version}</version>
</dependency>

然后,我们配置连接器,该连接器侦听Student表上的更改。我们使用PostgresConnector,对于connector.class这是由Debezium提供设置。这是追加数据库的连接器的Java类的名称。
连接器还具有一个重要的设置- offset.storage,它可以帮助应用程序从事务日志中跟踪已处理的数量。如果应用程序在处理过程中失败,它可以从重新启动后失败的地方继续读取更改。有多种存储偏移量的方法,但是在此示例中,我们使用类FileOffsetBackingStore将偏移量存储在由定义的本地文件中offset.storage.file.filename。连接器会记录文件中的偏移量,对于它读取的每个更改,Debezium引擎都会根据setting定期将偏移量刷新到文件中offset.flush.interval.ms。
连接器的其他参数是容纳Student表的Postgres数据库属性。

@Bean
public io.debezium.config.Configuration studentConnector() {
    return io.debezium.config.Configuration.create()
            .with("connector.class", "io.debezium.connector.postgresql.PostgresConnector")
            .with(
"offset.storage",  "org.apache.kafka.connect.storage.FileOffsetBackingStore")
            .with(
"offset.storage.file.filename", "/path/cdc/offset/student-offset.dat")
            .with(
"offset.flush.interval.ms", 60000)
            .with(
"name", "student-postgres-connector")
            .with(
"database.server.name", studentDBHost+"-"+studentDBName)
            .with(
"database.hostname", studentDBHost)
            .with(
"database.port", studentDBPort)
            .with(
"database.user", studentDBUserName)
            .with(
"database.password", studentDBPassword)
            .with(
"database.dbname", studentDBName)
            .with(
"table.whitelist", STUDENT_TABLE_NAME).build();
}

设置嵌入式Debezium的最后更改是在应用程序启动时启动它。为此,我们使用类EmbeddedEngine,该类充当连接器的包装器并管理连接器的生命周期。使用连接器配置和为每个数据更改事件将调用的函数(在我们的示例中为method)创建引擎handleEvent()。

private CDCListener(Configuration studentConnector, StudentService studentService) {
    this.engine = EmbeddedEngine
            .create()
            .using(studentConnector)
            .notifying(this::handleEvent).build();

    this.studentService = studentService;
}

在handleEvent()解析每个事件时,StudentService使用Spring Data JPA for Elasticsearch对发生的操作进行标识并调用,以在Elastic Search上执行创建/更新/删除操作。
现在我们已经设置好了,EmbeddedEngine我们可以使用该Executor服务异步启动它了。

private final Executor executor = Executors.newSingleThreadExecutor();

...

@PostConstruct
private void start() {
    this.executor.execute(engine);
}

@PreDestroy
private void stop() {
    if (this.engine != null) {
        this.engine.stop();
    }
}

看到实际的代码
一旦我们使用命令运行docker-compose文件并使用命令docker-compose up -d启动'Student CDC Relay' 启动了所有必需的工具mvn spring-boot:run。我们可以通过运行以下脚本来设置Student表:

CREATE TABLE public.student
(
    id integer NOT NULL,
    address character varying(255),
    email character varying(255),
    name character varying(255),
    CONSTRAINT student_pkey PRIMARY KEY (id)
);

为了查看运行中的代码,我们在刚创建的表上进行了数据更改。
将记录插入到学生表中:
运行下面的SQL将记录插入到Postgres的Student表中。

INSERT INTO STUDENT(ID, NAME, ADDRESS, EMAIL) VALUES('1','Jack','Dallas, TX','jack@gmail.com');

确认Elastic Search上数据已经更改:

$ curl -X GET http://localhost:9200/student/student/1?pretty=true
{
 
"_index" : "student",
 
"_type" : "student",
 
"_id" : "1",
 
"_version" : 31,
 
"_seq_no" : 30,
 
"_primary_term" : 1,
 
"found" : true,
 
"_source" : {
   
"id" : 1,
   
"name" : "Jack",
   
"address" : "Dallas, TX",
   
"email" : "jack@gmail.com"
  }
}

更新:

UPDATE STUDENT SET EMAIL='jill@gmail.com', NAME='Jill' WHERE ID = 1;

我们可以在Elastic Search上验证数据已更改为“Jill”

$ curl -X GET http://localhost:9200/student/student/1?pretty=true
{
 
"_index" : "student",
 
"_type" : "student",
 
"_id" : "1",
 
"_version" : 32,
 
"_seq_no" : 31,
 
"_primary_term" : 1,
 
"found" : true,
 
"_source" : {
   
"id" : 1,
   
"name" : "Jill",
   
"address" : "Dallas, TX",
   
"email" : "jill@gmail.com"
  }
}

最后的想法
这种方法确实非常简单,只有很少的活动部件,但是在缩放方面受到更大的限制,并且对故障的容忍度也大大降低。
当CDC-Relay应用程序运行良好时,将完全处理一次 源记录,但是在CDC-Relay应用程序重新启动后,底层应用程序确实需要容忍接收重复事件。
我们可以通过在另一个端口上启动“ Student CDC Relay”的另一个实例来测试围绕缩放的限制,我们看到以下异常:

2019-11-20 12:33:17.901 ERROR 59453 --- [pool-2-thread-1] io.debezium.embedded.EmbeddedEngine      : Error while trying to run connector class 'io.debezium.connector.postgresql.PostgresConnector'

Caused by: org.postgresql.util.PSQLException: ERROR: replication slot "debezium" is active for PID <>
    at org.postgresql.core.v3.QueryExecutorImpl.receiveErrorResponse(QueryExecutorImpl.java:2440) ~[postgresql-42.2.5.jar:42.2.5]
    at org.postgresql.core.v3.QueryExecutorImpl.processCopyResults(QueryExecutorImpl.java:1116) ~[postgresql-42.2.5.jar:42.2.5]
    at org.postgresql.core.v3.QueryExecutorImpl.startCopy(QueryExecutorImpl.java:842) ~[postgresql-42.2.5.jar:42.2.5]
    at org.postgresql.core.v3.replication.V3ReplicationProtocol.initializeReplication(V3ReplicationProtocol.java:58) ~[postgresql-42.2.5.jar:42.2.5]
    at org.postgresql.core.v3.replication.V3ReplicationProtocol.startLogical(V3ReplicationProtocol.java:42) ~[postgresql-42.2.5.jar:42.2.5]
    at org.postgresql.replication.fluent.ReplicationStreamBuilder$1.start(ReplicationStreamBuilder.java:38) ~[postgresql-42.2.5.jar:42.2.5]
    at org.postgresql.replication.fluent.logical.LogicalStreamBuilder.start(LogicalStreamBuilder.java:37) ~[postgresql-42.2.5.jar:42.2.5]

如果您的应用程序需要所有消息的至少一次传送保证,最好将完整的分布式Debezium系统与Kafka-Connect一起使用。