Lorem ipsum dolor sit amet, consectetur adipiscing elit. Suspendisse varius enim in eros elementum tristique. Duis cursus, mi quis viverra ornare, eros dolor interdum nulla, ut commodo diam libero vitae erat. Aenean faucibus nibh et justo cursus id rutrum lorem imperdiet. Nunc ut sem vitae risus tristique posuere.
Second blog post in the Kafka 101 series. In this post, we build on the infrastructure described in the first post, producing fake sales event to the Kafka cluster using the Java API and Apache Avro for messages serialization.
In this series of articles, we will explore the power of Kafka and Flink in building real-time data streaming pipelines. We will delve deeper into the architecture and features of Kafka and Flink, and showcase how these technologies can be used together to process and analyze data at scale.
Als Spezialisten für Apache Kafka haben wir einen neuen Lösungsweg für Microservice-Architekturen präsentiert.
Acosom hat Grund zu feiern: Wir sind Confluent Partner. Die Confluent-Plattform und -Cloud ist eine Streaming-Plattform, mit der in Echtzeit-Streams unkompliziert auf Daten zugegriffen werden kann. Was genau die Zertifizierung bedeutet, stellen wir Ihnen hier vor.
Dual APIS bedienen ereignis- und restbasierte Architekturen. Mit Event-Logs und Projektionen lassen sich diese vereinfachen.
Mit Kafka Connect lassen sich Ereignisse schnell und fehlertolerant von einer Quelle zu einer Sink zu übertragen. Mehr erfahren.