Dojo
话题
新佳
订阅
极道
元认知
元逻辑
元设计
元编程
元语言
Kafka消息系统教程
使用Spring Boot + Kafka实现分布式事务 - Piotr
在本文中,您将学习如何在 Spring Boot 应用程序中将 Kafka 事务与 Spring Kafka 项目一起使用。为了运行 Kafka 集群,我们将使用
使用Spring WebFlux和Reactive Kafka实现后端服务器发送事件
以非阻塞方式从基于 Kafka 的响应式 WebFlux REST 服务器到 Webflux 客户端的数据流。以下设计的架构可用于: 近乎实时地将数据推送到外部或内部应用程序。 将数据推送到文件上并将它们安全地复制到云服务。 将相同的数据从 Kafka
Dendrite项目从Kafka迁移到NATS
Matrix 是建立在分布式数据结构之上的实时通信联合协议,Dendrite是一个按照微服务架构建立的Matrix家庭服务器的实现。 我们
Uber实时数据基础设施:分布式计算架构
Uber 的实时数据基础设施: Apache Kafka 用于流式存储, Flink 用于流处理, Pinot 用于 OLAP, HDFS 用于归档存储, Presto 用于交互式查询 <
实时大数据分析:不能再忽视 CDC
如果您参与实时分析,就不能再忽视“更改数据捕获(简称#CDC)”。一些最流行和最先进的架构现在建立在基于 CDC 的解决方案之上。让我们探索是什么让 CDC 如此受欢迎,看看它将如何影响您的商业模式和项目。 虽然云提供了许多好处,例如存储和
在kubernetes上通过Knative服务和FastAPI消费使用 Kafka事件
分享我使用Knative设置事件驱动架构的经验和工作流程。 我现在构建的大多数最近的应用程序都严重依赖于 Kafka 和 Kubernetes,长话短说,这最终会产生一个向主题发送事件的生产者和一个消费该事件的while循环。在 Kafka 中,您
在事件驱动管道中设计弹性系统
我为我们的金融科技软件设计了事件驱动的架构。它由三个部分组成。第一部分有一个同步过程,第二部分和第三部分有异步操作。响应回复客户端后,将Kafka(消息代理)的最终结果发送到第二部分和第三部分。在第二部分中,我可不将结果返回给客户端。但是,将数据从第一部分发送到第二部
监控和检查Kafka健康运行的几个方法 - Ivelina
微服务通常使用发送或回复心跳/健康检查的模型作为向报告、调度或编排服务提供状态信息的一种方式。这些不仅在应用程序的正常生命周期中很重要,而且在新版本推出期间也很重要。我们将看看如何使用不同的库和抽象来实现健康检查,但首先,让我们就在检查应用程序的健康时要考虑的内容达成一致。
Apache Kafka 12个最佳实践
Apache Kafka,也被称为Kafka,是一个企业级的消息传递和流媒体代理系统。Kafka是一项伟大的技术,可用于架构和建立实时数据管道和流媒体应用程序。我强烈建议架构师们熟悉Kafka生态系统,特别是Kafka集群、代理、主题、分区、消费者、生产者和偏移的概念。
debezium官方分布式事务Saga案例源码
此示例演示如何使用变更数据捕获以安全可靠的方式实现Saga 模式,以实现跨多个微服务的分布式事务。基于#发件箱模式,
删除Kafka无用主题可提升40%性能
linkedin启动TopicGC删除Kafka不用的topic后,已经删除了近20%的topic,大大降低了Kafka集群的元数据压力。客户端请求性能提高了 40% 左右,CPU 使用率降低了 30%。 Apache Kafka 是一个开源的事
有状态流处理和流数据库两种数据处理方式比较
长期以来,在有状态流处理器和流数据库之间进行选择一直是一个有争议的问题。一个流处理应用程序是一个DAG(直接无环图),其中每个节点是一个处理步骤。你通过编写单独的处理函数来编写DAG,这些函数在数据流经过它们时执行操作。这些函数可以是无状态的操作,如转换或过滤,也可以是有状态
schema_registry_converter:使用Rust编写的Kafka Schema Registry
消息是作为记录存储在 Kafka 上:记录有一个值和一个可选的键,它们都是二进制格式。另一个重要的事实是 Kafka 使用主题来拆分消息。一个主题可能存在多个主题分区,用于使其可扩展。部分配置是特定于主题的。例如,关于某些主题的数据可以比其他主题保留更长时间,或者可以配置为compa
基于CDC实现源数据库和派生数据库之间的强数据一致性
在源数据库和派生数据库之间保持强数据一致性对于基于CDC的流数据管道至关重要。目标数据库必须反映对源数据库所做的最新更改,因为数据更改速度很快。像Apache Pinot这样的实时OLAP数据库利用其upsert功能来提供可靠的端到端数据一致性。Upsert确保摄取的数据集始终准确并
如何在 Kubernetes 上运行 Redpanda?
Redpanda 是一个开发人员优先的流数据平台,兼容 Kafka -API、无 ZooKeeper、无 JVM、Jepsen 测试和可用源。速度提高 10 倍,硬件效率提高 6 倍。您可以用 Redpanda 替换 Apache Kafka 而无需对源代码进行任何更改。相反,您将获
covrom/redispubsub:Redis Streams的发布订阅驱动程序
Go语言·的package pubsub 提供了一种简单且可移植的方式来与发布/订阅系统进行交互。这个项目驱动是基于pubsub的Redis 驱动程
Coinbase如何改造基础设施中Kafka?
在2020年和2021年,Coinbase的数据团队在AWS MSK、开源的Kafka Connect和Airflow ETL的基础上塑造了一个通用的Kafka基础设施,以增强工程师对事件流、数据分析和pub-sub用例的能力。 随着Kafka应用
如何用事件总线实现数据合约?- mehdio
如果您从事数据工作,那么您很有可能多次遇到这个问题:数据是错误的,您不知道为什么。数据上游似乎有问题,但是您的内部同事都不知道为什么,我们该怎么办?我们应该联系谁? 由于数据不是一等公民,数据团队大多开始对现有基础设施进行分析,以服务于其他初始目标
上页
下页
关闭