Mediathek

Medium

Thema

Artikel

Swissport setzt Pentaho bereits seit vielen Jahren wegen seiner Flexibilität, Zuverlässigkeit und Vielseitigkeit im Umgang mit Big Data zielführend ein. Bisher benutzte Swissport Pentaho unter anderem zum Auswerten von Flügen, Services und Personal. Zuletzt kam eine weitere, wichtige Integration hinzu. Swissport kombiniert Pentaho mit SAP für weltweite Verrechnungen. Pentaho ist in dieser Kombination für das Verarbeiten der Daten zuständig. Erfahren Sie in unserem Artikel, wie Swissport mit Pentaho uns SAP seine Prozesse schneller, flexibler und einfacher gestaltet und wie auch Sie Ihre Daten mit Pentaho und SAP verarbeiten können.

Artikel

Bei den Datenbanken unterscheidet man zwischen relationalen und nicht-relationalen Datenbanken. Die meisten Datenbanken arbeiten zeilenorientiert. Dies hat erheblichen Einfluss auf die Verarbeitungsgeschwindigkeit Ihrer Daten, denn eine zeilenorientierte Verarbeitung führt zu deutlichen Performance-Einbußen. Eine höhere Performance ist daher nur mit großem Aufwand durch Server-Cluster und Tuning bzw. Indizierung möglich.

Infobright ist eine analytische Datenbank, welche spaltenorientiert arbeitet. Dies bietet Ihnen hohe Performance-Vorteile beim Verarbeiten (riesiger) Datenmengen. Gleichzeitig ist Infobright zu vielen auf MySQL basierenden Datenbanken kompatibel.

Unser Beitrag verrät Ihnen die Arbeitsweise von Infobright, welche Vorteile die Datenbank für Sie und Ihr Unternehmen hat und warum Sie Infobright für große Datenmengen verwenden sollten.

Artikel

Der Marktführer für Fisch und Meeresfrüchte, Deutsche See, nutzt seit Jahren die Stärken von Pentaho für seine umfangreichen Daten-Analysen. Helmut Borghorst von Deutsche See weiß daher die zahlreichen Vorzüge von Pentaho im täglichen Einsatz zu schätzen. Er ist bei Deutsche See seit vielen Jahren der Leiter der eigenen Softwareentwicklung des Warenwirtschaftssystems im Verkauf, der Faktura, EDI-Abwicklung und der BI-Tools. Pentaho wird beim Fisch- und Meeresfrüchtespezialisten in Einkauf, Controlling, Marketing, Produktion, Verkauf, Logistik und von der Geschäftsführung genutzt. Die Bereitstellung einer hohen Datenmenge in einer grafischen Oberfläche, sowie die rasante Weiterentwicklung und der leicht zukaufbare Support gefallen Herrn Borghorst besonders gut an Pentaho. Suchen Sie ein Daten-Tool, mit dem Sie Ihre Daten aufbereiten, analysieren und in einer übersichtlichen Oberfläche darstellen können? Dann überzeugen Sie sich selbst, wie auch Herr Borghorst, von der Flexibilität, den vielfältigen Einsatzmöglichkeiten und dem einzigartigen Support von Pentaho.

Artikel

Haben Sie mit einer ständig wachsenden Datenmenge und steigenden Kundenerwartungen zu kämpfen, aber Ihre IT-Ressourcen sind nur begrenzt?

Mit der modernen Data Warehouse-Architektur Infobright analysieren Sie Ihre Daten äußerst flexibel in Turbogeschwindigkeit. Sparen Sie deutlich an Kosten, denn dank hochmoderner Datenkompression verbrauchen Ihre riesigen Datenmengen deutlich weniger Speicherplatz. In unserem Artikel stellen wir Ihnen die Vorteile von Infobright vor und wie Sie damit Ihre Daten spürbar flexibler – auch bei nur begrenzten IT-Ressourcen – verarbeiten und auswerten.

Artikel

Ein Data Warehouse muss heute mehr können, als Daten zu analysieren und Reportings zu generieren. Fachanwender in Unternehmen möchten zeitnahe Auswertungen von Daten aus dem operativen Bereich. Kommerzielle Datenbanken zum Betreiben eines Data Warehouse verursachen enorme Lizenz- und Betriebskosten.

Daten werden mit dem ETL-Prozess erfasst, in das Data Warehouse extrahiert, transformiert und geladen. Dadurch wird gewährleistet, dass für Sie als Unternehmen eine qualitativ hochwertige Datenbasis für Ihr Data Warehouse bereitsteht.

Mit Pentaho Data Integration (PDI) steht Ihnen eine mächtige, aber gleichzeitig auch für Nicht-Programmierer einfach zu bedienende Open Source-Lösung zu Verfügung. So können Sie intuitiv mit der grafischen Oberfläche per Drag & Drop professionell Daten in Ihrem Data Warehouse extrahieren, transformieren und laden.

Erfahren Sie in unserem Artikel, wie der ETL-Prozess für Sie mit der Open Source Lösung Pentaho Data Integration gelingt.

Artikel

Stellen Sie sich vor, Sie könnten eine große Menge an Daten bequem aus einer Anwendung analysieren und bearbeiten – und das auch für IT-ferne Anwender. Mit dem starken Duo Jedox in Kombination mit Hive on Spark kommt Ihr System auch bei riesigen Datenansammlungen nicht ins Schwitzen.

Apache Spark spielt seine Stärken besonders im Bereich Cluster Computing in Verbindung mit einer Vielzahl von Daten aus. In bestimmten Situationen ist Spark bis zu 100-mal schneller als MapReduce. Dank dieses enormen Geschwindigkeitsvorteils werten Sie Ihre Daten prompt aus.

In unserem Artikel haben wir für Sie die Kombo aus Jedox und Hive on Spark auf Herz und Nieren getestet. Erfahren Sie anhand unserer Messergebnisse, wie Sie Ihre Datenanalyse bedeutend beschleunigen können.

Artikel

Müssen Sie verschiedene Business Intelligence-Einzellösungen für Ihre Bedürfnisse einsetzen und hätten lieber alles in einer übersichtlichen BI-Suite?

Mit Pentaho, einem der Big Player in Sachen Open Source BI-Software, steht Ihnen ein komplettes BI-Framework zu Verfügung, dass Ihre ganzen bisherigen Einzellösungen ersetzt.

Dank der offenen Architektur mit der großen Anzahl an Schnittstellen binden Sie Pentaho mühelos in Ihre IT-Landschaft ein. Pentaho besteht aus verschiedenen Einzelmodulen, wie z.B. dem Pentaho Server mit seinem BI-Framework. Das Framework wiederum beinhaltet das ETL, Webdienste und viele weitere Module.

Pentaho ist Ihr wertvoller Helfer für alle Ihre wichtigen Big Data-Quellen und flexibel erweiterbar.

Artikel

Haben Sie große und unstrukturierte Datenmengen und möchten diese schnell auswerten und analysieren? MongoDB stellt Ihnen Ihre Daten bereits nach wenigen Augenblicken zur Verfügung. Egal, ob Ihre Daten strukturiert oder unstrukturiert vorliegen: Die NoSQL-Datenbank MongoDB arbeitet dokumentenbasiert und skaliert über mehrere Server. Dadurch haben Sie in kürzester Zeit auf Ihre Daten, egal ob diese strukturiert oder unstrukturiert vorliegen. Genießen Sie dank der Schemafreiheit von MongoDB maximale Flexibilität, denn dank des dynamischen Schemas von MongoDB passt sich diese Ihren Daten jederzeit an.

Artikel

Die Vielzahl an Daten, die im digitalen Zeitalter entstehen, bergen ein enormes, wirtschaftliches Potenzial für Ihr Unternehmen. Damit Sie aus Ihren Daten jedoch den maximalen, wirtschaftlichen Nutzen ziehen, benötigen Sie ein Data Warehouse, das Ihre Daten schnell verarbeitet und bereitstellt.

Ein Data Warehouse zu betreiben, ist mit hohen Wartungs- und Lizenzkosten verbunden. Die riesige Datenflut macht zudem den Aufbau einer Data Warehouse Lösung zu einer technisch anspruchsvollen Herausforderung.

In unserem Artikel erfahren Sie die besten Tipps, wie Sie mit Open Source Software ein leistungsfähiges und zugleich hoch-performantes Data Warehouse einrichten und betreiben.

Artikel

Möchten Sie das Maximale beim Analysieren und Verarbeiten von Big Data aus Ihrem Hadoop-Ökosystem herausholen – ohne zusätzliche Kosten?
Impala intergiert sich problemlos in Ihr Hadoop-System und dient als verteiltes Datenabfragetool. Mit Impala führen Sie Low Latency-Abfragen von Daten aus Ihrem Hadoop Distributed File System (HDFS) und HBase durch.
Da Impala für die Abfragen keine Daten bewegt und umwandelt, ist Impala schneller als Hive oder MapReduce.

Wenn Sie SQL beherrschen, sparen Sie Zeit, da Sie mit dem Entwicklungsmodell von Impala nicht jedes Mal ein neues Java-Programm schreiben müssen.