Mediathek

Medium

Thema

Artikel

Mit Splunk Enterprise indizieren, verarbeiten und analysieren Sie sämtliche Ihrer Betriebs- und Geschäftsdaten zu sinnvollen Informationen. Splunk integriert dabei Ihre Daten und präsentiert sie Ihnen in einer leicht verständlichen Benutzeroberfläche.

Splunk ist zu den meisten Betriebssystemen kompatibel, erkennt automatisch Ereignismuster und kann bequem für Ihre Bedürfnisse individualisiert werden.

Erfahren Sie in unserem Artikel, welche weiteren Vorteile Ihnen Splunk für das Verarbeiten und Analysieren Ihrer Daten bringt.

Artikel

Große Datenmengen auf geclusterten Computern schnell verarbeiten? Apache Spark ist für diese Aufgabe die perfekte Lösung. Schon Pinterest- und Airbnb-Admins sind auf den Geschmack dieser Technologie gekommen. Die In-Memory-Funktion von Spark ermöglicht es, Daten in kürzester Zeit zu verarbeiten.
Bei paralleler Datenverarbeitung verteilt Spark gekonnt die Jobs in den Arbeitsspeicher. Das hält Zugriffe auf das Hadoop Distributed File System (HDFS), HBase, Apache Hive oder Cassandra gering.

Als flexible Hochgeschwindigkeitslösung verarbeitet Spark sowohl Batch-orientierte als auch iterative oder Streaming-Analysen meisterhaft.
Lesen Sie mehr, wie Spark auch Ihre Datenmengen beschleunigt und welche Vorteile das System für Sie hat.

Artikel

Swissport setzt Pentaho bereits seit vielen Jahren wegen seiner Flexibilität, Zuverlässigkeit und Vielseitigkeit im Umgang mit Big Data zielführend ein. Bisher benutzte Swissport Pentaho unter anderem zum Auswerten von Flügen, Services und Personal. Zuletzt kam eine weitere, wichtige Integration hinzu. Swissport kombiniert Pentaho mit SAP für weltweite Verrechnungen. Pentaho ist in dieser Kombination für das Verarbeiten der Daten zuständig. Erfahren Sie in unserem Artikel, wie Swissport mit Pentaho uns SAP seine Prozesse schneller, flexibler und einfacher gestaltet und wie auch Sie Ihre Daten mit Pentaho und SAP verarbeiten können.

Artikel

Bei den Datenbanken unterscheidet man zwischen relationalen und nicht-relationalen Datenbanken. Die meisten Datenbanken arbeiten zeilenorientiert. Dies hat erheblichen Einfluss auf die Verarbeitungsgeschwindigkeit Ihrer Daten, denn eine zeilenorientierte Verarbeitung führt zu deutlichen Performance-Einbußen. Eine höhere Performance ist daher nur mit großem Aufwand durch Server-Cluster und Tuning bzw. Indizierung möglich.

Infobright ist eine analytische Datenbank, welche spaltenorientiert arbeitet. Dies bietet Ihnen hohe Performance-Vorteile beim Verarbeiten (riesiger) Datenmengen. Gleichzeitig ist Infobright zu vielen auf MySQL basierenden Datenbanken kompatibel.

Unser Beitrag verrät Ihnen die Arbeitsweise von Infobright, welche Vorteile die Datenbank für Sie und Ihr Unternehmen hat und warum Sie Infobright für große Datenmengen verwenden sollten.

Artikel

Der Marktführer für Fisch und Meeresfrüchte, Deutsche See, nutzt seit Jahren die Stärken von Pentaho für seine umfangreichen Daten-Analysen. Helmut Borghorst von Deutsche See weiß daher die zahlreichen Vorzüge von Pentaho im täglichen Einsatz zu schätzen. Er ist bei Deutsche See seit vielen Jahren der Leiter der eigenen Softwareentwicklung des Warenwirtschaftssystems im Verkauf, der Faktura, EDI-Abwicklung und der BI-Tools. Pentaho wird beim Fisch- und Meeresfrüchtespezialisten in Einkauf, Controlling, Marketing, Produktion, Verkauf, Logistik und von der Geschäftsführung genutzt. Die Bereitstellung einer hohen Datenmenge in einer grafischen Oberfläche, sowie die rasante Weiterentwicklung und der leicht zukaufbare Support gefallen Herrn Borghorst besonders gut an Pentaho. Suchen Sie ein Daten-Tool, mit dem Sie Ihre Daten aufbereiten, analysieren und in einer übersichtlichen Oberfläche darstellen können? Dann überzeugen Sie sich selbst, wie auch Herr Borghorst, von der Flexibilität, den vielfältigen Einsatzmöglichkeiten und dem einzigartigen Support von Pentaho.

Artikel

Haben Sie mit einer ständig wachsenden Datenmenge und steigenden Kundenerwartungen zu kämpfen, aber Ihre IT-Ressourcen sind nur begrenzt?

Mit der modernen Data Warehouse-Architektur Infobright analysieren Sie Ihre Daten äußerst flexibel in Turbogeschwindigkeit. Sparen Sie deutlich an Kosten, denn dank hochmoderner Datenkompression verbrauchen Ihre riesigen Datenmengen deutlich weniger Speicherplatz. In unserem Artikel stellen wir Ihnen die Vorteile von Infobright vor und wie Sie damit Ihre Daten spürbar flexibler – auch bei nur begrenzten IT-Ressourcen – verarbeiten und auswerten.

Artikel

Ein Data Warehouse muss heute mehr können, als Daten zu analysieren und Reportings zu generieren. Fachanwender in Unternehmen möchten zeitnahe Auswertungen von Daten aus dem operativen Bereich. Kommerzielle Datenbanken zum Betreiben eines Data Warehouse verursachen enorme Lizenz- und Betriebskosten.

Daten werden mit dem ETL-Prozess erfasst, in das Data Warehouse extrahiert, transformiert und geladen. Dadurch wird gewährleistet, dass für Sie als Unternehmen eine qualitativ hochwertige Datenbasis für Ihr Data Warehouse bereitsteht.

Mit Pentaho Data Integration (PDI) steht Ihnen eine mächtige, aber gleichzeitig auch für Nicht-Programmierer einfach zu bedienende Open Source-Lösung zu Verfügung. So können Sie intuitiv mit der grafischen Oberfläche per Drag & Drop professionell Daten in Ihrem Data Warehouse extrahieren, transformieren und laden.

Erfahren Sie in unserem Artikel, wie der ETL-Prozess für Sie mit der Open Source Lösung Pentaho Data Integration gelingt.

Artikel

Stellen Sie sich vor, Sie könnten eine große Menge an Daten bequem aus einer Anwendung analysieren und bearbeiten – und das auch für IT-ferne Anwender. Mit dem starken Duo Jedox in Kombination mit Hive on Spark kommt Ihr System auch bei riesigen Datenansammlungen nicht ins Schwitzen.

Apache Spark spielt seine Stärken besonders im Bereich Cluster Computing in Verbindung mit einer Vielzahl von Daten aus. In bestimmten Situationen ist Spark bis zu 100-mal schneller als MapReduce. Dank dieses enormen Geschwindigkeitsvorteils werten Sie Ihre Daten prompt aus.

In unserem Artikel haben wir für Sie die Kombo aus Jedox und Hive on Spark auf Herz und Nieren getestet. Erfahren Sie anhand unserer Messergebnisse, wie Sie Ihre Datenanalyse bedeutend beschleunigen können.

Artikel

Müssen Sie verschiedene Business Intelligence-Einzellösungen für Ihre Bedürfnisse einsetzen und hätten lieber alles in einer übersichtlichen BI-Suite?

Mit Pentaho, einem der Big Player in Sachen Open Source BI-Software, steht Ihnen ein komplettes BI-Framework zu Verfügung, dass Ihre ganzen bisherigen Einzellösungen ersetzt.

Dank der offenen Architektur mit der großen Anzahl an Schnittstellen binden Sie Pentaho mühelos in Ihre IT-Landschaft ein. Pentaho besteht aus verschiedenen Einzelmodulen, wie z.B. dem Pentaho Server mit seinem BI-Framework. Das Framework wiederum beinhaltet das ETL, Webdienste und viele weitere Module.

Pentaho ist Ihr wertvoller Helfer für alle Ihre wichtigen Big Data-Quellen und flexibel erweiterbar.

Artikel

Haben Sie große und unstrukturierte Datenmengen und möchten diese schnell auswerten und analysieren? MongoDB stellt Ihnen Ihre Daten bereits nach wenigen Augenblicken zur Verfügung. Egal, ob Ihre Daten strukturiert oder unstrukturiert vorliegen: Die NoSQL-Datenbank MongoDB arbeitet dokumentenbasiert und skaliert über mehrere Server. Dadurch haben Sie in kürzester Zeit auf Ihre Daten, egal ob diese strukturiert oder unstrukturiert vorliegen. Genießen Sie dank der Schemafreiheit von MongoDB maximale Flexibilität, denn dank des dynamischen Schemas von MongoDB passt sich diese Ihren Daten jederzeit an.