"Eine Neupartitionierung live ausprobiert ersetzt 100 Folien (mindestens.) "
Apache Kafka™-
Grundlagen und praktischer Einsatz
Grundlagen und praktischer Einsatz

Dauer: 2 Tage
Wo: Remote
Zielgruppe: Entwickler, Architekten, Betrieb
Schulung - Apache Kafka Grundlagen
Verteilte Systemintegration mit Apache Kafka
Schema Management
Weiterführende Beratung auf Wunsch zum flexiblen monatlichen Fixpreis
Wir erarbeiten die wichtigen Kafka Konzepte auf praktische Art und Weise. Die Schulung verzichtet komplett auf sinnlose und komplexe Foliensätze und fokussiert sich stattdessen auf die praktische Anwendung.
Praktische Anwendung von Apache Kafka Konzepten
Verständlich vermittelt, für immer im Kopf.
Keine Vorkenntnisse erforderlich
Verständlich vermittelt, für immer im Kopf.
Keine Vorkenntnisse erforderlich
✅ Kafka-Broker
✅ Topics, Partitionen und Segmente
✅ Retention Policies
✅ Producer / Consumer
✅ Zustellungsgarantien
✅ Kafka Security
✅ Avro / Schema Registry
✅ Kafka Connect
Nach der Schulung kennen die Entwickler die wichtigsten Kafka Konzepte und können Apache Kafka produktiv einsetzen.
Wie hilft Apache Kafka™ Ihrem Unternehmen?
Systeme können dynamisch verbunden werden. Keine undokumentierten Schnittstellen, manuellen Nacharbeiten und fehlerhaften API-Calls mehr.
Garantierte Reihenfolge und garantierte Zustellung von Nachrichten.
Kein Datenverlust mehr.
Kein Datenverlust mehr.
Einfache Einbindung von Datenbanken, CSV-Dateien und externen Systemen wie SAP oder Salesforce.
Einfache Einbindung von Datenbanken, CSV Dateien und externen Systemen wie SAP oder Salesforce.
Für wen ist die Schulung geeignet
Entwicklungsteams die planen mit Apache Kafka im Software-Stack zu arbeiten.
Anbindung von Bestandssystemen über Kafka
Teams die bereits mit Kafka arbeiten und besser verstehen möchten, wie die Zusammenhänge sind.
Anbindung von Bestandssystemen über Kafka
Teams die bereits mit Kafka arbeiten und besser verstehen möchten, wie die Zusammenhänge sind.
Was ist dafür nötig?
Wir arbeiten in der Schulung mit dem Confluent Stack.
Einzige Voraussetzung hierfür ist Docker
Einzige Voraussetzung hierfür ist Docker
Ablauf des Workshops
Im ersten Teil werden die Grundlagen des Kafka Ökosystems vermittelt - Broker, Topics, Partitionen, etc.
Wir besprechen die notwendige Theorie anhand von konkreten praktischen Beispielen.
Die Teilnehmer entwickeln Schritt für Schritt ein klares Verständnis, wie das System funktioniert.
Wir besprechen die notwendige Theorie anhand von konkreten praktischen Beispielen.
Die Teilnehmer entwickeln Schritt für Schritt ein klares Verständnis, wie das System funktioniert.
Wer sollte teilnehmen?
Entwickler, Architekten, Operations
Was ist das Ergebnis der Schulung?
Klares Verständnis über die technischen Zusammenhänge.
Basis Vorbereitung zur CCDAK Zertifizierung
Probleme aus der Praxis werden besprochen (Teilnehmer können eigene Probleme einbringen)
Teilnehmer sind fähig typische Kafka Produktionsprobleme zu verstehen und zu beheben.
Zugriff Nebulit Onlinekurse für die Teilnehmer
Ablauf
- Sie buchen einen ersten 30 Minuten Call in dem wir die Rahmendaten besprechen. (kostenlos & unverbindlich)
- Sind die Rahmendaten geklärt erhalten Sie direkt am selben Tag ein Angebot.
- Sie haben von der ersten Kontaktaufnahme bis zur Beauftragung immer denselben Ansprechpartner
- Sobald das Angebot bestätigt ist erhalten Sie einen Fragebogen zur Schulung per E-Mail, auf Basis dessen die Agenda individuell zusammengestellt wird.

