Mediathek

Medium

Thema

1

Video

Bringt dein Datenprojekt keinen ROI und trittst du auf der Stelle? Oft scheitert es bereits beim Planen der richtigen Datenstrategie, da hier entscheidende Fehler gemacht werden. Wir zeigen dir im Video mit Data Design Thinking einen neuen Ansatz, mit dem du datengetriebene Lösungen entwickest, Stakeholder-Perspektiven besser verstehst und eine optimale Datentechnologie nutzt.

Artikel

In-Memory-Datenbanken nutzen – im Gegensatz zu herkömmlichen Datenbanken – den Arbeitsspeicher als Datenspeicher. Das ermöglicht schnelle Datentransferraten und Zugriffszeiten.

Da es sich beim Arbeitsspeicher nur um einen flüchtigen Speicher handelt, bieten viele In-Memory-Datenbanken clevere Ansätze, Daten dauerhaft zu speichern.
Die hohe Datenverarbeitungs-Geschwindigkeit und trotzdem Daten persistent zu speichern, machen In-Memory-Datenbanken zu einer ernsthaften Alternative gegenüber herkömmlichen Datenbanken.

Artikel

MemSQL ist eine zu MySQL voll kompatible In-Memory-Datenbank. Die Datenbank wurde von den beiden ehemaligen Facebook-Programmierern Eric Frenkiel und Nikita Shamgunov als eine hochperformante In-Memory-Alternative zu MySQL entwickelt.
MemSQL ist beim Schreiben der Daten bis zu 30-mal schneller als MySQL. Anfragen an die MemSQL-Datenbank gelingen zuverlässig mit einer extrem kurzen Antwortzeit.
Unser Artikel erklärt Ihnen, warum MemSQL eine gelungene Alternative zu MySQL darstellt und wie Sie vom Einsatz der In-Memory-Datenbank profitieren.

Artikel

Immer wieder werden Hadoop-Cluster-Anwender Opfer von Hacker-Angriffen. Die Hacker haben es dabei vor allem auf das Hadoop-Distributed-File-System (HDFS) abgesehen und greifen bei ihren Angriffen die Daten der Handoop-Datenbanken ab. Von den Angriffen sind weltweit mehrere Tausend Installationen betroffen.
In unserem Ratgeber zeigen wir Ihnen 5 einfache und geniale Schritte, wie Sie Ihre Handoop-Installationen sichern und die Hacker außen vor halten.

Artikel

Wenn Sie im Big-Data-Bereich tätig sind, steht Ihnen mit Apache Storm eine Big-Data-Solution zur Verfügung, die fehlertolerant und gleichzeitig skalierbar Ihre Daten in Echtzeit verarbeitet. Die Verarbeitung verläuft dabei im Hintergrund, während Ihre Daten gleichzeitig von Apache Storm ausgegeben werden. Die Vision von Storm-Erfinder Nathan Marz war gleich zu Beginn klar. Das System sollte – basierend auf der Echtzeitverarbeitung von Daten – die Datenbanken aktualisieren, die Ausgabe der Ergebnisse fortlaufen berechnen und mithilfe verteilter Remote Procedure Calls (RPCs) rechenintensive Anfragen parallelisieren.
Unser Artikel verrät Ihnen, wie Sie Apache Storm für Ihr Unternehmen ideal einsetzen und welche Vorteile das System für die Echtzeitverarbeitung Ihrer Daten hat.

Artikel

Mit Hadoop in Kombination mit der BI-Suite von Jedox sparen Sie jede Menge Zeit. Sie können mit diesem Dream-Team Cubes 100-mal schneller befüllen und Auswertungen vornehmen.
Der clevere Cube-on-Demand-Ansatz ermöglicht es Ihnen, gewünschte Abfrageelemente mit einfachen Klicks zu einem neuen Analyse-Cube aufzubauen. Auf diesem können Sie turboschnelle Auswertungen durchführen.
Zudem können Sie dank des Cube-on-Demand-Ansatzes ohne große IT-Kenntnisse oder ein tieferes Verständnis von ETL-Prozessen aus einem Bericht heraus ETL-Jobs mühelos starten.
Lesen Sie in unserem Artikel, welche weiteren Vorteile Ihnen Jedox und Hadoop bringen und wie Sie Analysen und Berechnungen im Handumdrehen durchführen.

Artikel

Das Hadoop Yarn-Framework bearbeitet Daten parallel und verteilt sie in einer Cluster-Umgebung mittels Container. Verschiedene Anwendungen werden auf speziellen Hosts voneinander getrennt, sodass sich die Ressourcenleistung Ihres Clusters erheblich verbessert.
Die hohe Verarbeitungsgeschwindigkeit von Yarn sorgt unter anderem dafür, dass Sie große Datenmengen effektiver verarbeiten und Ihr Hadoop-Cluster besser auslasten.

Erfahren Sie mehr zu den Vorteilen von Hadoop Yarn.

Artikel

Große Datenmengen auf geclusterten Computern schnell verarbeiten? Apache Spark ist für diese Aufgabe die perfekte Lösung. Schon Pinterest- und Airbnb-Admins sind auf den Geschmack dieser Technologie gekommen. Die In-Memory-Funktion von Spark ermöglicht es, Daten in kürzester Zeit zu verarbeiten.
Bei paralleler Datenverarbeitung verteilt Spark gekonnt die Jobs in den Arbeitsspeicher. Das hält Zugriffe auf das Hadoop Distributed File System (HDFS), HBase, Apache Hive oder Cassandra gering.

Als flexible Hochgeschwindigkeitslösung verarbeitet Spark sowohl Batch-orientierte als auch iterative oder Streaming-Analysen meisterhaft.
Lesen Sie mehr, wie Spark auch Ihre Datenmengen beschleunigt und welche Vorteile das System für Sie hat.

Artikel

Haben Sie mit einer ständig wachsenden Datenmenge und steigenden Kundenerwartungen zu kämpfen, aber Ihre IT-Ressourcen sind nur begrenzt?

Mit der modernen Data Warehouse-Architektur Infobright analysieren Sie Ihre Daten äußerst flexibel in Turbogeschwindigkeit. Sparen Sie deutlich an Kosten, denn dank hochmoderner Datenkompression verbrauchen Ihre riesigen Datenmengen deutlich weniger Speicherplatz. In unserem Artikel stellen wir Ihnen die Vorteile von Infobright vor und wie Sie damit Ihre Daten spürbar flexibler – auch bei nur begrenzten IT-Ressourcen – verarbeiten und auswerten.

Artikel

Stellen Sie sich vor, Sie könnten eine große Menge an Daten bequem aus einer Anwendung analysieren und bearbeiten – und das auch für IT-ferne Anwender. Mit dem starken Duo Jedox in Kombination mit Hive on Spark kommt Ihr System auch bei riesigen Datenansammlungen nicht ins Schwitzen.

Apache Spark spielt seine Stärken besonders im Bereich Cluster Computing in Verbindung mit einer Vielzahl von Daten aus. In bestimmten Situationen ist Spark bis zu 100-mal schneller als MapReduce. Dank dieses enormen Geschwindigkeitsvorteils werten Sie Ihre Daten prompt aus.

In unserem Artikel haben wir für Sie die Kombo aus Jedox und Hive on Spark auf Herz und Nieren getestet. Erfahren Sie anhand unserer Messergebnisse, wie Sie Ihre Datenanalyse bedeutend beschleunigen können.
1