Apache Kafka Streams Workshop

In einer Ära, in der Daten in rasantem Tempo strömen und Entscheidungen in kürzester Zeit getroffen werden müssen, nimmt die Relevanz des Stream-Processings kontinuierlich zu.

Apache Kafka und Apache Kafka Streams stellen zentrale Technologien dar, um kontinuierliche Datenströme effizient zu verwalten und in Echtzeit adäquate Reaktionen zu ermöglichen.

In diesem Workshop werden wir Schritt für Schritt, von den Grundlagen bis hin zu  komplexen Anwendungen alle Aspekte von Kafka Streams praxisnah behandeln.

Unabhängig davon, ob Sie schon Erfahrungen im Datenmanagement haben, als versierter Entwickler agieren oder einfach die facettenreichen Chancen des Stream-Processings entdecken möchten, dieser Workshop wird Ihre Perspektive erweitern und Ihr Know-how vertiefen.

Vera Sawatzki
Vera SawatzkiFinance Data Scientist
Das interaktive Format des Data Thinking Workshops war wirklich was Besonderes und hat uns sehr geholfen von der Businessidee zum Datenmodell zu gelangen.
Michael Schmidt
Michael SchmidtData Warehouse Analyst
Der Data Modelling Workshop hat uns geholfen Anwendungsfälle zu identifizieren, die unsere Prozesse im Unternehmen optimieren. Coole Methodik für eine anspruchsvolle Thematik.
Alexander Keidel
Alexander KeidelSolution Architect Big Data Analytics
it-novum GmbH
83% der Teilnehmer haben nach unserem Architecture Workshop Ihr Projekt erfolgreich gestartet und in time & budget umgesetzt.
Marcel Opatzke
Marcel OpatzkeAbteilungsleiter Datenmanagement
Ich bin absolut zufrieden. Der Leiter des Solution Architecture Workshops war ein projekterfahrender Consultant, der unsere fachlichen Anforderungen gekonnt in einen klaren Implementierungsplan überführen konnte.
Christopher Keller
Christopher KellerHead of Professional Services & Development Big Data Analytics
it-novum GmbH
Unsere Workshops haben die Aufgabe ein gemeinsames Verständnis über die Anforderungen zu schaffen und damit die Lösung zu strukturieren. Das ist die Basis für erfolgreiche Projekte. Weiterhin profitieren unsere Teilnehmer von den eingesetzten Methoden und dem strukturierten Vorgehen, welches sich positiv auf die Projektergebnisse auswirkt.
Volle Punktzahl von Teilnehmern unserer Data Workshops
Zufriedenheitswert laut unserer Teilnehmerbefragung aus 90+ Workshops der letzten 2 Jahre.
Ich habe Interesse am
Workshop: Hands-On Kafka Streams!

in-house     online

Ihre Vorteile

Von Hello World zur Datenpipeline
Vom einfachen 'Hello World'-Beispiel bis zur komplexen Datenpipeline ermöglicht dieser Workshop einen lückenlosen Übergang, um die gesamte Bandbreite von Kafka Streams effektiv zu nutzen.
Hands-On statt Powerpoint
Statt trockener Powerpoint-Präsentationen setzen wir auf direktes Ausprobieren und praktisches Lernen, sodass Sie Apache Kafka Streams wirklich verstehen und anschließend damit in Ihren Projekten arbeiten können.
Deutschsprachiger Wissenstransfer
Durch unsere erfahrenen Trainer garantieren wir einen deutschsprachigen Wissenstransfer, sodass komplexe Konzepte klar und verständlich vermittelt werden.

Was macht unseren Workshop besonders?

Von Hello World zur Datenpipeline

Vom einfachen 'Hello World'-Beispiel bis zur komplexen Datenpipeline ermöglicht dieser Workshop einen lückenlosen Übergang, um die gesamte Bandbreite von Kafka Streams effektiv zu nutzen.

Hands-On statt Powerpoint

Statt trockener Powerpoint-Präsentationen setzen wir auf direktes Ausprobieren und praktisches Lernen, sodass Sie Apache Kafka Streams wirklich verstehen und anschließend damit in Ihren Projekten arbeiten können.

Deutschsprachiger Wissenstransfer

Durch unsere erfahrenen Trainer garantieren wir einen deutschsprachigen Wissenstransfer, sodass komplexe Konzepte klar und verständlich vermittelt werden.


Zielgruppe​


Entwickler, Architekten, Data-Engineers & Data Scientists​


Dauer​


1 Personentag

Zielgruppe

Entwickler, Architekten, Data-Engineers & Data Scientists

Dauer

1 Personentag

Agenda

Tag 

1. Intro Kafka Streams & Apache Kafka
In unserem Grundlagenteil lernen Sie die möglichen Operationen von Kafka Streams kennen, die Sie in den späteren Beispielanwendungsfällen anwenden werden.


2. Setup Entwicklungsumgebung
Unser Trainer führt Sie durch die bereitgestellte Entwicklungsumgebung, die Sie im Hands-On Teil nutzen werden.


3. Hello World! & Hello Streams
Nun geht es los! Sie programmieren ein erstes Beispiel und machen sich so mit Kafka-Streams und der Entwicklungsumgebung vertraut. Unserer Trainer steht ihnen dabei natürlich mit Rat und Tat zur Seite.


4. Challenge 1 : IIoT: Sensoren und Stammdaten
Nun geht es an den ersten Usecase aus der Praxis: es sollen IoT-Sensordaten mit Stammdaten verjoint werden.


5. Challenge 2: Kafka Streams im Real-Time Data Warehouse
Vom Shop Floor zum Reporting: Im nächsten Beispiel setzen Sie einen Anwendungsfall aus dem Datawarehousing Umfeld um.


Recap
Nachdem Sie nun alle Challenges erfolgreich gelöst haben, ist es Zeit für eine kurze Zusammenfassung des Tages. Wo lagen die Probleme? Wo könnten Sie Kafka-Streams in ihrem Unternehmen einsetzen? Unser erfahrener Trainer berät sie gerne.