So löst du die Probleme traditioneller ETL-Architekturen
Data Warehouses, als Single Source of Truth, mit der zugehörigen ETL-Landschaft gehören zum Standard vieler Unternehmen. Im Laufe der letzten Jahre wurden sie um Data Lakes und andere Datentöpfe erweitert. In vielen Unternehmen hat sich daher ein regelrechter Datendschungel gebildet, der durch klassische ETL-Architekturen nur noch schwer zu handhaben ist und hohe Kosten verursacht.
Unternehmen werden dazu gezwungen neue Alternativen zu suchen, um eine einheitliche Sicht auf die Daten zu bekommen – und zwar ohne komplexe Datenprozesse und Architekturen zu implementieren. Datenvirtualisierung löst hier die Probleme der klassischen ETL-Architekturen.
In unserem Vortrag beschreiben wir die technischen Bestandteile einer Datenvirtualiserungslösung und deren massive Vorteile für Unternehmen. Aber wir gehen auch auf Bedenken ein, die gegen den Einsatz von Virtualisierung sprechen. Achtung Spoiler: Die Bedenken erweisen sich als unbegründet.
Der Sprecher
Christopher Keller
Director Big Data Analytics & IoT,
it-novum
Arne Ottens
Solution Architect,
Starburst
Über it-novum
it-novum ist Teil der börsennotierten Allgeier SE mit 3000 Mitarbeitern und 42 Standorten weltweit. Als führendes IT-Beratungsunternehmen für Business Open Source umfasst das Portfolio Lösungen für Big Data Analytics und IoT.
Wir implementieren kundenindividuelle Lösungen für Datenintegration, Data Analytics und IoT – z.B. für Bundespolizei, Wiener Wohnen, Deutsche See. Dazu nutzen wir führende Technologien, wie von Hitachi Vantara (Pentaho), Apache Hop, ThingsBoard oder Jedox.
Über Starburst
Starburst bietet die schnellste und effizienteste Analyse-Engine für Ihr Data Warehouse, Data Lake oder Data Mesh. Wir erschließen den Wert von verteilten Daten, indem wir sie schnell und einfach zugänglich machen, egal wo sie sich befinden. Sie bietet einen Single Point of Access zur Abfrage von Daten, die in jedem Datensystem gespeichert sein können. Es können interaktive und ETL-Workloads im Verbund mit einer einzigen Abfrage-Engine ausgeführt werden, wodurch Verzögerungen und Kosten bei Datenbewegungen erheblich reduziert werden.