Mediathek

Medium

Thema

Video

Bringt dein Datenprojekt keinen ROI und trittst du auf der Stelle? Oft scheitert es bereits beim Planen der richtigen Datenstrategie, da hier entscheidende Fehler gemacht werden. Wir zeigen dir im Video mit Data Design Thinking einen neuen Ansatz, mit dem du datengetriebene Lösungen entwickest, Stakeholder-Perspektiven besser verstehst und eine optimale Datentechnologie nutzt.

Artikel

In-Memory-Datenbanken nutzen – im Gegensatz zu herkömmlichen Datenbanken – den Arbeitsspeicher als Datenspeicher. Das ermöglicht schnelle Datentransferraten und Zugriffszeiten.

Da es sich beim Arbeitsspeicher nur um einen flüchtigen Speicher handelt, bieten viele In-Memory-Datenbanken clevere Ansätze, Daten dauerhaft zu speichern.
Die hohe Datenverarbeitungs-Geschwindigkeit und trotzdem Daten persistent zu speichern, machen In-Memory-Datenbanken zu einer ernsthaften Alternative gegenüber herkömmlichen Datenbanken.

Artikel

MemSQL ist eine zu MySQL voll kompatible In-Memory-Datenbank. Die Datenbank wurde von den beiden ehemaligen Facebook-Programmierern Eric Frenkiel und Nikita Shamgunov als eine hochperformante In-Memory-Alternative zu MySQL entwickelt.
MemSQL ist beim Schreiben der Daten bis zu 30-mal schneller als MySQL. Anfragen an die MemSQL-Datenbank gelingen zuverlässig mit einer extrem kurzen Antwortzeit.
Unser Artikel erklärt Ihnen, warum MemSQL eine gelungene Alternative zu MySQL darstellt und wie Sie vom Einsatz der In-Memory-Datenbank profitieren.

Artikel

Immer wieder werden Hadoop-Cluster-Anwender Opfer von Hacker-Angriffen. Die Hacker haben es dabei vor allem auf das Hadoop-Distributed-File-System (HDFS) abgesehen und greifen bei ihren Angriffen die Daten der Handoop-Datenbanken ab. Von den Angriffen sind weltweit mehrere Tausend Installationen betroffen.
In unserem Ratgeber zeigen wir Ihnen 5 einfache und geniale Schritte, wie Sie Ihre Handoop-Installationen sichern und die Hacker außen vor halten.

Artikel

Wenn Sie im Big-Data-Bereich tätig sind, steht Ihnen mit Apache Storm eine Big-Data-Solution zur Verfügung, die fehlertolerant und gleichzeitig skalierbar Ihre Daten in Echtzeit verarbeitet. Die Verarbeitung verläuft dabei im Hintergrund, während Ihre Daten gleichzeitig von Apache Storm ausgegeben werden. Die Vision von Storm-Erfinder Nathan Marz war gleich zu Beginn klar. Das System sollte – basierend auf der Echtzeitverarbeitung von Daten – die Datenbanken aktualisieren, die Ausgabe der Ergebnisse fortlaufen berechnen und mithilfe verteilter Remote Procedure Calls (RPCs) rechenintensive Anfragen parallelisieren.
Unser Artikel verrät Ihnen, wie Sie Apache Storm für Ihr Unternehmen ideal einsetzen und welche Vorteile das System für die Echtzeitverarbeitung Ihrer Daten hat.

Artikel

Mit Hadoop in Kombination mit der BI-Suite von Jedox sparen Sie jede Menge Zeit. Sie können mit diesem Dream-Team Cubes 100-mal schneller befüllen und Auswertungen vornehmen.
Der clevere Cube-on-Demand-Ansatz ermöglicht es Ihnen, gewünschte Abfrageelemente mit einfachen Klicks zu einem neuen Analyse-Cube aufzubauen. Auf diesem können Sie turboschnelle Auswertungen durchführen.
Zudem können Sie dank des Cube-on-Demand-Ansatzes ohne große IT-Kenntnisse oder ein tieferes Verständnis von ETL-Prozessen aus einem Bericht heraus ETL-Jobs mühelos starten.
Lesen Sie in unserem Artikel, welche weiteren Vorteile Ihnen Jedox und Hadoop bringen und wie Sie Analysen und Berechnungen im Handumdrehen durchführen.

Artikel

Das Hadoop Yarn-Framework bearbeitet Daten parallel und verteilt sie in einer Cluster-Umgebung mittels Container. Verschiedene Anwendungen werden auf speziellen Hosts voneinander getrennt, sodass sich die Ressourcenleistung Ihres Clusters erheblich verbessert.
Die hohe Verarbeitungsgeschwindigkeit von Yarn sorgt unter anderem dafür, dass Sie große Datenmengen effektiver verarbeiten und Ihr Hadoop-Cluster besser auslasten.

Erfahren Sie mehr zu den Vorteilen von Hadoop Yarn.

Artikel

Große Datenmengen auf geclusterten Computern schnell verarbeiten? Apache Spark ist für diese Aufgabe die perfekte Lösung. Schon Pinterest- und Airbnb-Admins sind auf den Geschmack dieser Technologie gekommen. Die In-Memory-Funktion von Spark ermöglicht es, Daten in kürzester Zeit zu verarbeiten.
Bei paralleler Datenverarbeitung verteilt Spark gekonnt die Jobs in den Arbeitsspeicher. Das hält Zugriffe auf das Hadoop Distributed File System (HDFS), HBase, Apache Hive oder Cassandra gering.

Als flexible Hochgeschwindigkeitslösung verarbeitet Spark sowohl Batch-orientierte als auch iterative oder Streaming-Analysen meisterhaft.
Lesen Sie mehr, wie Spark auch Ihre Datenmengen beschleunigt und welche Vorteile das System für Sie hat.

Artikel

Haben Sie mit einer ständig wachsenden Datenmenge und steigenden Kundenerwartungen zu kämpfen, aber Ihre IT-Ressourcen sind nur begrenzt?

Mit der modernen Data Warehouse-Architektur Infobright analysieren Sie Ihre Daten äußerst flexibel in Turbogeschwindigkeit. Sparen Sie deutlich an Kosten, denn dank hochmoderner Datenkompression verbrauchen Ihre riesigen Datenmengen deutlich weniger Speicherplatz. In unserem Artikel stellen wir Ihnen die Vorteile von Infobright vor und wie Sie damit Ihre Daten spürbar flexibler – auch bei nur begrenzten IT-Ressourcen – verarbeiten und auswerten.

Artikel

Stellen Sie sich vor, Sie könnten eine große Menge an Daten bequem aus einer Anwendung analysieren und bearbeiten – und das auch für IT-ferne Anwender. Mit dem starken Duo Jedox in Kombination mit Hive on Spark kommt Ihr System auch bei riesigen Datenansammlungen nicht ins Schwitzen.

Apache Spark spielt seine Stärken besonders im Bereich Cluster Computing in Verbindung mit einer Vielzahl von Daten aus. In bestimmten Situationen ist Spark bis zu 100-mal schneller als MapReduce. Dank dieses enormen Geschwindigkeitsvorteils werten Sie Ihre Daten prompt aus.

In unserem Artikel haben wir für Sie die Kombo aus Jedox und Hive on Spark auf Herz und Nieren getestet. Erfahren Sie anhand unserer Messergebnisse, wie Sie Ihre Datenanalyse bedeutend beschleunigen können.

Artikel

Haben Sie große und unstrukturierte Datenmengen und möchten diese schnell auswerten und analysieren? MongoDB stellt Ihnen Ihre Daten bereits nach wenigen Augenblicken zur Verfügung. Egal, ob Ihre Daten strukturiert oder unstrukturiert vorliegen: Die NoSQL-Datenbank MongoDB arbeitet dokumentenbasiert und skaliert über mehrere Server. Dadurch haben Sie in kürzester Zeit auf Ihre Daten, egal ob diese strukturiert oder unstrukturiert vorliegen. Genießen Sie dank der Schemafreiheit von MongoDB maximale Flexibilität, denn dank des dynamischen Schemas von MongoDB passt sich diese Ihren Daten jederzeit an.

Artikel

Möchten Sie das Maximale beim Analysieren und Verarbeiten von Big Data aus Ihrem Hadoop-Ökosystem herausholen – ohne zusätzliche Kosten?
Impala intergiert sich problemlos in Ihr Hadoop-System und dient als verteiltes Datenabfragetool. Mit Impala führen Sie Low Latency-Abfragen von Daten aus Ihrem Hadoop Distributed File System (HDFS) und HBase durch.
Da Impala für die Abfragen keine Daten bewegt und umwandelt, ist Impala schneller als Hive oder MapReduce.

Wenn Sie SQL beherrschen, sparen Sie Zeit, da Sie mit dem Entwicklungsmodell von Impala nicht jedes Mal ein neues Java-Programm schreiben müssen.

Artikel

Daten sind das neue Öl in der Automobilbranche. Die Digitalisierung hat dafür gesorgt, dass vernetzte Fahrzeuge die Mobilität und den Straßenverkehr nachhaltig verändert haben. Das „Connected Car“ ist bei der aktuellen Fahrzeuggeneration bereits Standard. Dank zahlreicher Komfortfunktionen wie das Umfahren von Staus, hochmoderne Entertainment-Systeme mit aktuellen Wetter- und Verkehrsmeldungen und Zugriff auf diverse Internet-Angebote machen das Auto zu einem fahrbaren Smart-Mobil mit modernster Technik. Doch die neue Smart-Mobilität birgt zahlreiche Risiken, die wir unter anderem in unserem Artikel beleuchten.

Artikel

Dank des MapReduce-Algorithmus von Apache Hive sind Sie in der Lage, Ihre Daten aus relationalen Datenbanken in Hadoop zu migrieren.
Hive arbeitet mit dem Schema-on-Read-Ansatz (SoR). Ihre Daten werden unverändert im HDFS abgelegt und erst bei Anfragen mittels „ETL on the fly“ gegen das Schema geprüft. Dieser Ansatz lädt Ihre Daten wesentlich schneller und erspart das Parsen, Lesen und Konvertieren in das datenbankinterne Format.
Erfahren Sie in unserem Artikel mehr über die zahlreichen Vorteile von Hive und migrieren Sie Ihre Daten erfolgreich mit Apache Hive in Hadoop.

Artikel

Apache Hadoop wurde ursprünglich für Internet-Größen wie Facebook, Google und Yahoo entwickelt. Daher kommt Hadoop bestens mit großen Datenmengen zurecht und bleibt dabei durch hochskalierbare Server-Cluster sehr schnell.
Analysieren Sie Ihre Daten flexibel, kostengünstig und hochperformant. Sie können mit Hadoop nicht nur riesige Datenmengen speichern, sondern auch Rohdaten, die Sie für spätere, wertvolle Analysen nutzen können.
Hadoop verarbeitet Ihre Daten über voneinander verteilte Systeme, die unabhängig voneinander ihre Aufgaben erfüllen, was zu einer schnellen Verarbeitungsgeschwindigkeit führt.
Erfahren Sie mehr über die Vorteile von Hadoop in unserem Artikel.

Artikel

Daten sind das Gold eines jeden Unternehmens. Richtig verarbeitet und ausgewertet, können Sie mithilfe Ihrer Daten Produkte individualisieren, Kundenbeziehungen verbessern, den Umsatz steigern und neue Innovationen entwickeln.
Mit der richtigen Big Data-Technologie gewinnen Sie wertvolle Erkenntnisse aus Ihren Daten, die Ihr Unternehmen wertvoller machen und Ihnen einen klaren Wettbewerbsvorteil gegenüber Ihrer Konkurrenz verschaffen.
Unser Artikel verrät Ihnen die 10 Big Data-Technologien, die Ihnen dabei helfen, aus Big Data den maximalen Nutzen für Ihr Unternehmen zu ziehen.

Whitepaper

Modernes Management benötigt smarte Lösungsansätze mit den richtigen Tools. Unser Whitepaper zeigt Ihnen auf, wie Sie modernes Datenmanagement betreiben und welche Tools sich dafür ideal eigenen.

Whitepaper

Im heutigen Data Lake-Zeitalter benötigen Sie Ordnung in Ihrem Datensee. Mit einem Datakatalog organisieren Sie Ihre Daten und schaffen Übersicht. Unser Whitepaper zeigt Ihnen, wie Sie mit der KI-basierten Katalogsoftware Lumada die Daten in Ihrem Data Lake automatisch zuordnen.

Whitepaper

Möchten Sie als öffentliche Behörde mit Open Source den nächsten Schritt hin zu einer digitalen Infrastruktur gehen? Das Whitepaper zeigt Ihnen die Vorteile Open Source-basierter Technologien unter Berücksichtigung des öffentlichen Sektors auf. Bereits erfolgreich umgesetzte Praxisbeispiele runden die Broschüre ab.

Whitepaper

Verschaffen Sie sich schnell einen Überblick über die 10 wichtigsten Big Data-Technologien wie Hadoop, Cloudera, Apache Hive und 7 weiteren Technologien. Nach dem Lesen des Ratgebers wissen Sie, welche Big Data-Technologien für Ihr Unternehmen am besten geeignet ist.