Dojo
话题
新佳
订阅
极道
元认知
元逻辑
元设计
元编程
元语言
Kafka消息系统教程
使用嵌入式Debezium和SpringBoot捕获更改数据事件(CDC) - Sohan Ganapathy
在处理数据或复制数据源时,您可能已经听说过术语更改数据捕获(CDC)。顾名思义,“ CDC”是一种设计模式,可以持续识别并捕获数据的增量更改。该模式用于跨实时数据库到分析数据源或只读副本的实时数据复制。它还可以用于根据数据更改触发事件,例如
Kafdrop是Apache Kafka的开源Web UI可视化界面 - Emil Koutanov
作为消息传递平台,Kafka无需介绍。自成立以来,它实际上重写了有关事件流的书,并促进了现在的家庭设计模式的采用-微服务,事件源和CQRS。作为一个天赐之物,它几乎以其臭名昭著的缺乏工具而摆脱了。您将很难找到一个曾经没有看过内置CLI工具。随着Kafka的流行,不足为奇的是,
经验分享:Apache Kafka的缺点与陷阱 - Emil Koutanov
我已经协助了一些大型客户使用Kafka作为消息传递主干来构建微服务风格的体系结构,并对它的功能和真正使他们发挥作用的用例有了相当好的理解。但是我绝对不是卡夫卡的辩护律师。经历了如此迅速的采用曲线的任何技术都必定会使其受众两极分化,并以某种错误的方式吸引某些开发人员,Kafka也不例外。像其他
选择Apache Pulsar而不是Kafka的理由 - Kafkaesque
在Kafkaesque,我们的使命是使开发人员能够使用与云无关的高性能消息传递技术,使其易于所有人使用,从而使他们能够构建云原生的分布式应用程序。开发人员希望编写分布式应用程序或微服务,但不希望管理复杂的消息基础结构或被某个特定的云供应商所困扰。他们需要一个可行的解决方案。当您着手构
Zeebe与Kafka的天作之合:将Zeebe工作流引擎引入Apache Kafka实现微服务编排 - Bernd Rücker
Zeebe工作流引擎为什么以及如何与Kafka出色地结合在一起?简要介绍产品并解释联合用例,说明产品可以解决哪些问题,提示技术实施要点。 什么是Zeebe
避免踩坑:如何防止Apache Kafka丢失数据? Kafka中那些为追求高可用性而忽视的高可靠性配置参数 - SoftwareMill技术博客
讨论Kafka中最重要的配置,从而能防止Kafka中的数据丢失。 生产者消息确认机制这是生产者级别的超重要配置。根据文档,消息确认acks属性是:生产者客户端要求kafka集群中选举的领导者在确认请
Apache Kafka和Spring Boot的容错和可靠消息传递 – Arnold Galovics
在过去的几年中,Kafka已经开始大幅增加其市场份额。除了微服务和消息传递之外,还有一种已经开始流行的架构模式:事件溯源。Kafka提供了架构模式所需的属性,因此非常适合事件采购。事件源中的关键概念之一是存储不可变的事件序列(将其视为审核日志)以捕获系统状态。这样就可以在任何给定时间
Apache Kafka消息传递精确正好一次的含义 | TechMyTalk
在分布式环境中,故障是很常见的情况,可以随时发生。在Kafka环境中,消息代理可能会崩溃,网络故障,处理故障,发布消息时失败或无法使用消息等。这些不同的情况导致了不同类型的数据丢失和重复。 失败场景
Azkarra Streams简介:Apache Kafka Streams的第一个微框架
Kafka Streams是一个功能强大的库,用于在Apache Kafka之上构建复杂的流应用程序。随着时间的推移,以及经过多个项目之后,我们发现自己正在编写相同的代码来在生产环境中运行和与Kafka Streams应用程序交互。我们坚信,基于Kafka Streams的简单微服务
github-tchiotludo/kafkahq:Kafka GUI管理界面,提供Kafka Topic主题、主题数据、使用者组、模式注册表、连接等更多信息...
经验分享:如何重新再处理Apache Kafka的消息事件? -Tinkoff
在外部系统之一不可用的情况下进行事件重新处理是我们业务流程的重要组成部分。希望有这样一个重试机制:如果任何外部系统暂时不可用,该应用程序可以让我们重新处理消息。 卡夫卡之前在项目的早期,我们使用IBM MQ
经验分享:RabbitMQ与Kafka等消息系统的使用者讨论 - ycombinator
vel0city:我已经在相当小的VM上运行RabbitMQ很长时间了。RabbitMQ不需要每条消息大量的资源,即使使用非常小的VM(512MB RAM,单个CPU),我也看到它每秒处理数千条消息的峰值而不会出现问题。给它一些强大的硬件,它可能会处理您正在考虑的任何负载,除非您使10gig
Apache Kafka内部删除了对ZooKeeper的依赖
Apache Kafka使用Apache ZooKeeper存储其元数据,ZooKeeper有什么问题呢?实际上,问题不在于ZooKeeper本身,而在于外部元数据管理的概念。 有两个系统会导致很多重复。毕竟,Kafka是复制的分布式日志,其顶部是
为什么在Apache Druid中的实时数据使用Kafka索引 ? -Kartik Khare
将数据存储在实时数据流中一直是一个挑战。解决方案取决于您的用例具体情况。如果要存储数据以进行每日或每月分析,则可以使用分布式文件系统并在其上运行Hive或
github-unifrost/unifrost:使用服务器发送事件(EventSource)技术中继Apache Kafka等pubsub消息流到Web,便于实时查看消息内容
unifrost是一个go模块,用于通过SSE(Eventsource)将pubsub消息中继到Web 。它基于Twitte
杀死Apache Kafka:过度架构的陷阱 - Stephanie Sherriff
通往地狱的道路充满了良好的愿望。希望您可以从我们的错误中学习并发现为什么在开始下一个项目时应该考虑极简主义。在Spaceship,Voyager应用程序后端的第一个迭代很大程度上依赖于Kafka。我们的意图是崇高的:创建一个应用程序,随着我们的客户群的增长,该应用程序将具有可审核性,
Kafka Streams 2.5提供更高的高可用性和交互式查询 - confluent
是什么阻止您将Kafka Streams用作构建应用程序的数据层?毕竟,它具有快速的嵌入式RocksDB存储,可为您处理冗余,具有高度可伸缩性并提供正好一次精确的语义。推荐博文:
Apache Kafka消费者再平衡 | TechMyTalk
消费者重新平衡决定哪个消费者是负责某些主题Topic的所有可用分区的哪个子集。例如,您可能有一个包含20个分区和10个使用者的主题。在重新平衡结束时,您可能希望每个使用者都从2个分区中读取数据。如果关闭了这些使用者中的10个,则可能会期望每个使用者在重新平衡完成后对应1个分区。消费者重新平衡
上页
下页
关闭