TDWI Virtual II: Dein Weg aus dem ETL-Dschungel! 

Dieses Event ist leider schon vorbei.

Melde Dich hier zum nächsten an

TDWI Virtual II: Dein Weg aus dem ETL-Dschungel! 

Dieses Event ist leider schon vorbei.

Melde Dich hier zum nächsten an

So löst du die Probleme traditioneller ETL-Architekturen

Data Warehouses, als Single Source of Truth, mit der zugehörigen ETL-Landschaft gehören zum Standard vieler Unternehmen. Im Laufe der letzten Jahre wurden sie um Data Lakes und andere Datentöpfe erweitert. In vielen Unternehmen hat sich daher ein regelrechter Datendschungel gebildet, der durch klassische ETL-Architekturen nur noch schwer zu handhaben ist und hohe Kosten verursacht.

Unternehmen werden dazu gezwungen neue Alternativen zu suchen, um eine einheitliche Sicht auf die Daten zu bekommen – und zwar ohne komplexe Datenprozesse und Architekturen zu implementieren. Datenvirtualisierung löst hier die Probleme der klassischen ETL-Architekturen.

In unserem Vortrag beschreiben wir die technischen Bestandteile einer Datenvirtualiserungslösung und deren massive Vorteile für Unternehmen. Aber wir gehen auch auf Bedenken ein, die gegen den Einsatz von Virtualisierung sprechen. Achtung Spoiler: Die Bedenken erweisen sich als unbegründet.

Der Sprecher

Picture of Christopher Keller

Christopher Keller

Director Big Data Analytics & IoT,
it-novum

Picture of Arne Ottens

Arne Ottens

Solution Architect,
Starburst

Über it-novum

it-novum ist Teil der börsennotierten Allgeier SE mit 3000 Mitarbeitern und 42 Standorten weltweit. Als führendes IT-Beratungsunternehmen für Business Open Source umfasst das Portfolio Lösungen für Big Data Analytics und IoT.
Wir implementieren kundenindividuelle Lösungen für Datenintegration, Data Analytics und IoT – z.B. für Bundespolizei, Wiener Wohnen, Deutsche See. Dazu nutzen wir führende Technologien, wie von Hitachi Vantara (Pentaho), Confluent, ThingsBoard, neo4j oder Jedox.

Über Starburst

Starburst bietet die schnellste und effizienteste Analyse-Engine für Ihr Data Warehouse, Data Lake oder Data Mesh. Wir erschließen den Wert von verteilten Daten, indem wir sie schnell und einfach zugänglich machen, egal wo sie sich befinden.​ Sie bietet einen Single Point of Access zur Abfrage von Daten, die in jedem Datensystem gespeichert sein können. Es können interaktive und ETL-Workloads im Verbund mit einer einzigen Abfrage-Engine ausgeführt werden, wodurch Verzögerungen und Kosten bei Datenbewegungen erheblich reduziert werden.