Lunch Break: Data Mesh mit Echtzeitdaten

Dieses Event ist leider schon vorbei.

Melde Dich hier zum nächsten an

Lunch Break: Data Mesh mit Echtzeitdaten

Dieses Event ist leider schon vorbei.

Melde Dich hier zum nächsten an

Data Mesh ermöglicht einen schnellen Zugriff auf eine wachsende Anzahl an verteilten Domain-Datensätzen. Damit löst Data Mesh eine der geläufigsten Schwachstellen traditioneller Data Lake & Data Warehouse-Architekturen. 

Die Herausforderung besteht darin, eine event-basierte Architektur in ein Data Mesh zu integrieren. Hierzu stellten wir in unserem Lunch Break eine praxiserprobte Lösung vor, die in der Kombination zweier bewährter Software-Technologien bestand: Die Streaming Plattform Confluent ermöglicht es Unternehmen schnell und einfach auf Echtzeit Streams mit Unternehmensdaten zuzugreifen. Starburst ist einer der schnellsten und effizientesten Analyse-Engine für Ihr Data Warehouse, Data Lake oder Data Mesh. 

In einer Live-Demo und Präsentation stellten wir eine Data Mesh Lösung für einen konkreten Use Case vor, mit der Unternehmen den Wert ihrer Daten maximieren sowie Verzögerungen und Kosten bei Datenbewegungen erheblich reduzieren können.

„Data Mesh is not a big bang, it’s a journey”

Sven Blumler
Sven Blumler
Digital Transformation Manager
Weiterlesen
Hatte nicht erwartet, dass Starburst so eine coole Lösung ist.
Sabrina Edler
Sabrina Edler
Projektleiterin
Weiterlesen
Die Demo, der beiden Technologien fand ich sehr hilfreich für unsere eigenen Projekte.
Markus Meier
Markus Meier
Anwendungsentwicklung
Weiterlesen
Ich fand es spannend, wie einfach die Integration von Kafka in Starburst ging.
Voriger
Nächster

Agenda

12:00 - 12:05 Uhr | Begrüßung​ von it-novum

12:05 - 12:25 Uhr | ​Vortrag: ​Warum überhaupt Data Mesh umsetzen?
Lukas Bachus, it-novum

Woher kommt der Begriff und welchen Einfluss hat Data Mesh auf die Organisationsstruktur der Firmen. Warum scheitern bisher so viele Datenprojekte und wie kann Data Mesh diese Probleme lösen und durch Datendemokratisierung die Umsetzung beschleunigen.

12:25 - 12:35 Uhr | Live-Demo: Confluent und Starburst
Angelo Sebastianelli, Confluent und Joseph Gade, Starburst

Wir zeigen ​Ihnen, wie​ durch das Zusammenspiel der beiden ​Technologien ​eine Echtzeit​-​​P​lattform für Ihre Data Mesh-Architektur erstellt wird.

  • Konkrete Vorgehensweise 
  • Darstellung des Datenflusses 
  • Einbindung von weiteren Datenquellen (z.B. MongoDB, Snowflake)

12:35 - 12:45 Uhr | Anwendungsfall​:​ Einsatz beider Technologien
Joseph Gade, Starburst

​​W​ir ​stellen einen ​Anwendungsf​all vor​, in ​dem​ ​ein ​Starburst-Kunde die Datenverarbeitung sowohl von Kafka betriebenen Streams als auch von Data Lake​ & ​​ ​​Data Warehouse-​Implementierungen kombiniert ​hat.​​ ​

12:45 - 13:00 Uhr | FAQ

Event Impressionen

Lukas Bachus beim letzten Webinar
Die Prinzipien von Data Mesh
Data Mesh-Ziele und -Ergebnisse
Data Mesh Zitat

Die Veranstalter des Events

Starburst

​​Starburst bietet die schnellste und effizienteste Analyse-Engine für Ihr Data Warehouse, Data Lake oder Data Mesh. Wir erschließen den Wert von verteilten Daten, indem wir sie schnell und einfach zugänglich machen, egal wo sie sich befinden.​ Sie bietet einen Single Point of Access zur Abfrage von Daten, die in jedem Datensystem gespeichert sein können. Es können interaktive und ETL-Workloads im Verbund mit einer einzigen Abfrage-Engine ausgeführt werden, wodurch Verzögerungen und Kosten bei Datenbewegungen erheblich reduziert werden.

Confluent 

Confluent, gegründet von den Entwicklern der Open­-Source­Lösung Apache Kafka®, bietet die führende Streaming­Plattform, welche es Unternehmen ermöglicht, den Wert ihrer Daten zu maximieren. Die Plattform ermöglicht es Unternehmen, schnell und einfach auf Echtzeit­Streams mit Unternehmensdaten zuzugreifen. 

it-novum

it-novum ist Teil der börsennotierten Allgeier SE mit 3000 Mitarbeitern und 42 Standorten weltweit. Als führendes IT-Beratungsunternehmen für Business Open Source umfasst das Portfolio Lösungen für Big Data Analytics und IoT, Enterprise Information Management und IT-Service Management. 

Wir implementieren kundenindividuelle Lösungen für Datenintegration, Data Analytics und IoT – z.B. für Bundespolizei, Wiener Wohnen, Deutsche See. Dazu nutzen wir führende Technologien, wie von Hitachi Vantara (Pentaho), Snowflake oder Jedox. 

Whitepaper: Mit Kafka und Confluent zum Realtime Business