Video

Video anschauen
Artikel

Vom Data Warehouse zum Echtzeit-Daten-Streaming
Lorem ipsum dolor sit amet, consetetur sadipscing elitr, sed diam nonumy eirmod tempor invidunt ut labore et dolore magna aliquyam erat, sed diam voluptua. At vero eos et accusam et justo duo dolores et ea rebum. Stet clita kasd gubergren, no sea takimata sanctus est Lorem ipsum dolor sit amet.
- 5 Minuten
Weiterlesen
Video

Video anschauen
Artikel

Starburst – Schnellste Abfrage-Engine für Data Warehouse, Data Lake oder Data Mesh
Lorem ipsum dolor sit amet, consetetur sadipscing elitr, sed diam nonumy eirmod tempor invidunt ut labore et dolore magna aliquyam erat, sed diam voluptua. At vero eos et accusam et justo duo dolores et ea rebum. Stet clita kasd gubergren, no sea takimata sanctus est Lorem ipsum dolor sit amet.
Starburst ist die schnellste SQL-Abfrage-Engine und basiert auf der Open Source-Software Trino. Damit verarbeitest und analysierst du deine Daten in Rekordzeit. Verschwende keine Zeit mehr mit langsamen SQL-Engines.
Seine wahre Stärke spielt Starburst bei Big Data Analysen aus. Verarbeite blitzschnell Daten aus Datenquellen wie etwa Hadoop Distributed File System (HDFS), Azure Blob File System (ABFS), AWS Simple Storage Service (S3) und dem Google Cloud Storage.
- 4 Minuten
Weiterlesen
Video

Video anschauen
Artikel

Agiles Data Warehouse mit Data Vault
Lorem ipsum dolor sit amet, consetetur sadipscing elitr, sed diam nonumy eirmod tempor invidunt ut labore et dolore magna aliquyam erat, sed diam voluptua. At vero eos et accusam et justo duo dolores et ea rebum. Stet clita kasd gubergren, no sea takimata sanctus est Lorem ipsum dolor sit amet.
- 4 Minuten
Weiterlesen
Artikel

Data Vault: mehr Agilität im Data Warehouse
Lorem ipsum dolor sit amet, consetetur sadipscing elitr, sed diam nonumy eirmod tempor invidunt ut labore et dolore magna aliquyam erat, sed diam voluptua. At vero eos et accusam et justo duo dolores et ea rebum. Stet clita kasd gubergren, no sea takimata sanctus est Lorem ipsum dolor sit amet.
Mit Data Vault (2.0) steht Ihnen allerdings eine mächtige und gleichzeitig dynamische Modellierungstechnik zur Verfügung, mit der Sie Ihr Data Warehouse schnell und wirkungsvoll anpassen können.
Unser Artikel erklärt Ihnen, was Data Vault genau ist und welche Möglichkeiten Ihnen das Pentaho Data Vault Framework zum Einbinden von Data Vault bietet.
- 8 Minuten
Weiterlesen
Artikel

Interview: Data Warehouse in der Cloud
Lorem ipsum dolor sit amet, consetetur sadipscing elitr, sed diam nonumy eirmod tempor invidunt ut labore et dolore magna aliquyam erat, sed diam voluptua. At vero eos et accusam et justo duo dolores et ea rebum. Stet clita kasd gubergren, no sea takimata sanctus est Lorem ipsum dolor sit amet.
Der Cloud-Spezialist von Snowflake, Rene Medak, verrät Ihnen in unserem Interview, wie mit der Cloud Ihr Data Warehouse den wachsenden Ansprüchen im Zuge der Digitalisierung bestens gewappnet ist.
Rene Medak gibt unter anderem Antworten auf Fragen bezüglich Bedenken der Daten in der Cloud und wie die perfekte Lösung für Unternehmen aussieht.
- 6 Minuten
Weiterlesen
Artikel

Use Cases für Data Warehousing und Analytics
Lorem ipsum dolor sit amet, consetetur sadipscing elitr, sed diam nonumy eirmod tempor invidunt ut labore et dolore magna aliquyam erat, sed diam voluptua. At vero eos et accusam et justo duo dolores et ea rebum. Stet clita kasd gubergren, no sea takimata sanctus est Lorem ipsum dolor sit amet.
- 17 Minuten
Weiterlesen
Artikel

Pentaho Analyzer – flexibles Analysetool für das Open Data Warehouse
Lorem ipsum dolor sit amet, consetetur sadipscing elitr, sed diam nonumy eirmod tempor invidunt ut labore et dolore magna aliquyam erat, sed diam voluptua. At vero eos et accusam et justo duo dolores et ea rebum. Stet clita kasd gubergren, no sea takimata sanctus est Lorem ipsum dolor sit amet.
Daten aus dem Data Warehouse zu analysieren, gehört in der heutigen digitalen Zeit für Controlling, Produktion und Marketing zum Standard. Manager und Mitarbeiter Ihres Unternehmens benötigen einen einfachen, schnellen und leicht verständlichen Überblick über Zahlen, Daten und Fakten des Unternehmens und der Prozesse.
Als Datenintegrations- sowie Analyse-Tool bietet Ihnen Pentaho auf Open Source Basis einen kinderleichten, schnellen Einstieg sowie übersichtliche Dashboards. Auch ganz ohne Programmierkenntnisse sind Sie in der Lage, mit Pentaho die Daten Ihres Data Warehouse aufzubereiten, zu visualisieren und interaktiv miteinander zu teilen.
Erfahren Sie in unserem Artikel, wie Pentaho die Daten aus Ihrem Data Warehouse für Sie perfekt aufbereitet und visualisiert.
- 3 Minuten
Weiterlesen
Artikel

Mondrian – quelloffener OLAP Server für relationale Datenbanksysteme
Lorem ipsum dolor sit amet, consetetur sadipscing elitr, sed diam nonumy eirmod tempor invidunt ut labore et dolore magna aliquyam erat, sed diam voluptua. At vero eos et accusam et justo duo dolores et ea rebum. Stet clita kasd gubergren, no sea takimata sanctus est Lorem ipsum dolor sit amet.
Der Java-basierten OLAP-Server Mondrian ist in der Lage, Schnittpunkte verschiedener Dimensionen zu finden, zum Beispiel alle Fahrräder eines Typs, die in einer Region für einen bestimmten Preis in einem bestimmten Zeitraum verkauft wurden.
Erfahren Sie in unserem Artikel, welches Online Analytical Processing für Sie am besten geeignet ist.
- 3 Minuten
Weiterlesen
Artikel

Spaltenorientierte Datenhaltung im Data Warehouse (OSS)
Lorem ipsum dolor sit amet, consetetur sadipscing elitr, sed diam nonumy eirmod tempor invidunt ut labore et dolore magna aliquyam erat, sed diam voluptua. At vero eos et accusam et justo duo dolores et ea rebum. Stet clita kasd gubergren, no sea takimata sanctus est Lorem ipsum dolor sit amet.
Infobright ist eine analytische Datenbank, welche spaltenorientiert arbeitet. Dies bietet Ihnen hohe Performance-Vorteile beim Verarbeiten (riesiger) Datenmengen. Gleichzeitig ist Infobright zu vielen auf MySQL basierenden Datenbanken kompatibel.
Unser Beitrag verrät Ihnen die Arbeitsweise von Infobright, welche Vorteile die Datenbank für Sie und Ihr Unternehmen hat und warum Sie Infobright für große Datenmengen verwenden sollten.
- 3 Minuten
Weiterlesen
Artikel

Open Source Data Warehouse – Diese Daten gehören ins Lager
Lorem ipsum dolor sit amet, consetetur sadipscing elitr, sed diam nonumy eirmod tempor invidunt ut labore et dolore magna aliquyam erat, sed diam voluptua. At vero eos et accusam et justo duo dolores et ea rebum. Stet clita kasd gubergren, no sea takimata sanctus est Lorem ipsum dolor sit amet.
Daten werden mit dem ETL-Prozess erfasst, in das Data Warehouse extrahiert, transformiert und geladen. Dadurch wird gewährleistet, dass für Sie als Unternehmen eine qualitativ hochwertige Datenbasis für Ihr Data Warehouse bereitsteht.
Mit Pentaho Data Integration (PDI) steht Ihnen eine mächtige, aber gleichzeitig auch für Nicht-Programmierer einfach zu bedienende Open Source-Lösung zu Verfügung. So können Sie intuitiv mit der grafischen Oberfläche per Drag & Drop professionell Daten in Ihrem Data Warehouse extrahieren, transformieren und laden.
Erfahren Sie in unserem Artikel, wie der ETL-Prozess für Sie mit der Open Source Lösung Pentaho Data Integration gelingt.
- 4 Minuten
Weiterlesen
Artikel

Best Practice: Aufbau eines Data Warehouse System mit Open Source Software
Lorem ipsum dolor sit amet, consetetur sadipscing elitr, sed diam nonumy eirmod tempor invidunt ut labore et dolore magna aliquyam erat, sed diam voluptua. At vero eos et accusam et justo duo dolores et ea rebum. Stet clita kasd gubergren, no sea takimata sanctus est Lorem ipsum dolor sit amet.
Ein Data Warehouse zu betreiben, ist mit hohen Wartungs- und Lizenzkosten verbunden. Die riesige Datenflut macht zudem den Aufbau einer Data Warehouse Lösung zu einer technisch anspruchsvollen Herausforderung.
In unserem Artikel erfahren Sie die besten Tipps, wie Sie mit Open Source Software ein leistungsfähiges und zugleich hoch-performantes Data Warehouse einrichten und betreiben.
- 3 Minuten
Weiterlesen
Artikel

Apache Hive – das Data Warehouse für Hadoop
Lorem ipsum dolor sit amet, consetetur sadipscing elitr, sed diam nonumy eirmod tempor invidunt ut labore et dolore magna aliquyam erat, sed diam voluptua. At vero eos et accusam et justo duo dolores et ea rebum. Stet clita kasd gubergren, no sea takimata sanctus est Lorem ipsum dolor sit amet.
Hive arbeitet mit dem Schema-on-Read-Ansatz (SoR). Ihre Daten werden unverändert im HDFS abgelegt und erst bei Anfragen mittels „ETL on the fly“ gegen das Schema geprüft. Dieser Ansatz lädt Ihre Daten wesentlich schneller und erspart das Parsen, Lesen und Konvertieren in das datenbankinterne Format.
Erfahren Sie in unserem Artikel mehr über die zahlreichen Vorteile von Hive und migrieren Sie Ihre Daten erfolgreich mit Apache Hive in Hadoop.
- 3 Minuten
Weiterlesen
Whitepaper

Weiterlesen
Whitepaper

Weiterlesen
Whitepaper

Weiterlesen
Whitepaper

Weiterlesen
Whitepaper

Weiterlesen