Second blog post in the Kafka 101 series. In this post, we build on the infrastructure described in the first post, producing fake sales event to the Kafka cluster using the Java API and Apache Avro for messages serialization.
In this series of articles, we will explore the power of Kafka and Flink in building real-time data streaming pipelines. We will delve deeper into the architecture and features of Kafka and Flink, and showcase how these technologies can be used together to process and analyze data at scale.
Dual APIS bedienen ereignis- und restbasierte Architekturen. Mit Event-Logs und Projektionen lassen sich diese vereinfachen.
Mit Kafka Connect lassen sich Ereignisse schnell und fehlertolerant von einer Quelle zu einer Sink zu übertragen. Mehr erfahren.
Viele Programme und Datenbanken bzw. Datenverarbeitungssysteme unterstützen reguläre Ausdrücke, auch bekannt unter regex, regexp und regular expressions. Doch was bedeuten diese regulären Ausdrücke und wie funktionieren sie? Diese Fragen werden hier beantwortet und Sie erfahren, wie sich die Ausdrücke in der Praxis einsetzen lassen.
Die Symbiose für gesteigerte Skalierbarkeit und Flexibilität: Event bades microservices und polyglot architecture