Mediathek

Medium

Thema

Artikel

Pentaho ist das Schweizer Taschenmesser für Big Data. Mit Pentaho gelingen Ihnen Projekte in der Datenintegration, Data Warehouse, eingebettete Analyselösungen oder intelligente Anwendungen für Industrie 4.0, Smart Factory oder Smart City. Die in diesem Artikel behandelten Use Cases stammen aus den Branchen öffentliche Verwaltung, Dienstleistung, Produktion und IT und zeigen Ihnen, wie Pentaho in der Praxis auch große Projekte mühelos bewältigt. Zu den Praxisbeispielen zählen die Bundespolizei, STIWA, Bosch, Eurofunk, Swissport und viele andere Unternehmen und Behörden, die Pentaho erfolgreich einsetzen.

Artikel

Wenn Sie im Big-Data-Bereich tätig sind, steht Ihnen mit Apache Storm eine Big-Data-Solution zur Verfügung, die fehlertolerant und gleichzeitig skalierbar Ihre Daten in Echtzeit verarbeitet. Die Verarbeitung verläuft dabei im Hintergrund, während Ihre Daten gleichzeitig von Apache Storm ausgegeben werden. Die Vision von Storm-Erfinder Nathan Marz war gleich zu Beginn klar. Das System sollte – basierend auf der Echtzeitverarbeitung von Daten – die Datenbanken aktualisieren, die Ausgabe der Ergebnisse fortlaufen berechnen und mithilfe verteilter Remote Procedure Calls (RPCs) rechenintensive Anfragen parallelisieren.
Unser Artikel verrät Ihnen, wie Sie Apache Storm für Ihr Unternehmen ideal einsetzen und welche Vorteile das System für die Echtzeitverarbeitung Ihrer Daten hat.

Artikel

Mit Hadoop in Kombination mit der BI-Suite von Jedox sparen Sie jede Menge Zeit. Sie können mit diesem Dream-Team Cubes 100-mal schneller befüllen und Auswertungen vornehmen.
Der clevere Cube-on-Demand-Ansatz ermöglicht es Ihnen, gewünschte Abfrageelemente mit einfachen Klicks zu einem neuen Analyse-Cube aufzubauen. Auf diesem können Sie turboschnelle Auswertungen durchführen.
Zudem können Sie dank des Cube-on-Demand-Ansatzes ohne große IT-Kenntnisse oder ein tieferes Verständnis von ETL-Prozessen aus einem Bericht heraus ETL-Jobs mühelos starten.
Lesen Sie in unserem Artikel, welche weiteren Vorteile Ihnen Jedox und Hadoop bringen und wie Sie Analysen und Berechnungen im Handumdrehen durchführen.

Artikel

Das Web bietet für Unternehmen zahlreiche Möglichkeiten, Daten rund um den eigenen digitalen Auftritt zu analysieren. Webanalysten sind mit diesen Daten in der Lage, Online-Aktivitäten auf der eigenen Website sowie verschiedenste Marketing-Aktivitäten zu tracken und analysieren.

Die gesammelten Daten helfen Ihnen, wichtige und wegweisende Unternehmens-Entscheidungen zu treffen und Ihre Marketing- und Onlineaktivitäten besser zu planen.

Damit Sie Ihre Daten – gerade im Big Data-Bereich – jedoch korrekt interpretieren und die richtigen Schlüsse aus der Analyse ziehen, benötigen Sie das passende Analytics-Dashboard. Es gibt jedoch beim Erstellen des für Sie geeigneten Dashboards einige Punkte zu beachten.

In unserem Artikel erklären wir Ihnen, welche Fragen Sie sich stellen sollten, um den maximalen Nutzen aus Ihrer visuellen Analyse herauszuholen.

Artikel

Kinderleicht zu bedienende Software, die gleichzeitig auch reich an Funktionalität ist, muss nicht immer teuer sein.

Daten aus dem Data Warehouse zu analysieren, gehört in der heutigen digitalen Zeit für Controlling, Produktion und Marketing zum Standard. Manager und Mitarbeiter Ihres Unternehmens benötigen einen einfachen, schnellen und leicht verständlichen Überblick über Zahlen, Daten und Fakten des Unternehmens und der Prozesse.

Als Datenintegrations- sowie Analyse-Tool bietet Ihnen Pentaho auf Open Source Basis einen kinderleichten, schnellen Einstieg sowie übersichtliche Dashboards. Auch ganz ohne Programmierkenntnisse sind Sie in der Lage, mit Pentaho die Daten Ihres Data Warehouse aufzubereiten, zu visualisieren und interaktiv miteinander zu teilen.

Erfahren Sie in unserem Artikel, wie Pentaho die Daten aus Ihrem Data Warehouse für Sie perfekt aufbereitet und visualisiert.

Artikel

Online Analytical Processing (OLAP) beinhaltet die Arbeitsschritte innerhalb eines Data Warehouse und visualisiert dabei über mehrere Dimensionen riesige Datenmengen. OLAP gibt es in verschiedenen Varianten wie relationales (ROLAP), multidimensionales (MOLAP) oder hybrides (HOLAP). Je nachdem, aus welchen Quellen die Daten stammen, wird das entsprechende Online Analytical Processing eingesetzt.

Der Java-basierten OLAP-Server Mondrian ist in der Lage, Schnittpunkte verschiedener Dimensionen zu finden, zum Beispiel alle Fahrräder eines Typs, die in einer Region für einen bestimmten Preis in einem bestimmten Zeitraum verkauft wurden.

Erfahren Sie in unserem Artikel, welches Online Analytical Processing für Sie am besten geeignet ist.

Artikel

Das Hadoop Yarn-Framework bearbeitet Daten parallel und verteilt sie in einer Cluster-Umgebung mittels Container. Verschiedene Anwendungen werden auf speziellen Hosts voneinander getrennt, sodass sich die Ressourcenleistung Ihres Clusters erheblich verbessert.
Die hohe Verarbeitungsgeschwindigkeit von Yarn sorgt unter anderem dafür, dass Sie große Datenmengen effektiver verarbeiten und Ihr Hadoop-Cluster besser auslasten.

Erfahren Sie mehr zu den Vorteilen von Hadoop Yarn.

Artikel

Möchten Sie mit nur wenigen Klicks aussagekräftige Analysen erstellen? Möchten Sie Ihre Kunden, Prozesse und den Markt besser verstehen und daraus die richtigen Schlüsse ziehen?

Viele Unternehmen setzen nach wie vor für Ihre Auswertungen und Reporting auf Analysetools und -prozesse, die oft langwierig, komplex und fehleranfällig sind.

In unserem Artikel stellen wir Ihnen verschiedene Unternehmen vor, die Big Data Analysen auf Knopfdruck eingeführt haben und erfolgreich betreiben. So gelang Unternehmen im Börsenumfeld, im Hausverwaltungsbereich, im E-Commerce- und eGaming-Sektor mit Pentaho und Co. der Durchbruch in Sachen Big Data Analyse auf Knopfdruck.

Artikel

Mit Splunk Enterprise indizieren, verarbeiten und analysieren Sie sämtliche Ihrer Betriebs- und Geschäftsdaten zu sinnvollen Informationen. Splunk integriert dabei Ihre Daten und präsentiert sie Ihnen in einer leicht verständlichen Benutzeroberfläche.

Splunk ist zu den meisten Betriebssystemen kompatibel, erkennt automatisch Ereignismuster und kann bequem für Ihre Bedürfnisse individualisiert werden.

Erfahren Sie in unserem Artikel, welche weiteren Vorteile Ihnen Splunk für das Verarbeiten und Analysieren Ihrer Daten bringt.

Artikel

Große Datenmengen auf geclusterten Computern schnell verarbeiten? Apache Spark ist für diese Aufgabe die perfekte Lösung. Schon Pinterest- und Airbnb-Admins sind auf den Geschmack dieser Technologie gekommen. Die In-Memory-Funktion von Spark ermöglicht es, Daten in kürzester Zeit zu verarbeiten.
Bei paralleler Datenverarbeitung verteilt Spark gekonnt die Jobs in den Arbeitsspeicher. Das hält Zugriffe auf das Hadoop Distributed File System (HDFS), HBase, Apache Hive oder Cassandra gering.

Als flexible Hochgeschwindigkeitslösung verarbeitet Spark sowohl Batch-orientierte als auch iterative oder Streaming-Analysen meisterhaft.
Lesen Sie mehr, wie Spark auch Ihre Datenmengen beschleunigt und welche Vorteile das System für Sie hat.