Big Data
Große Datenmengen erfolgreich im Griff
MemSQL: Die MySQL Datenturbo-Alternative
MemSQL ist eine zu MySQL voll kompatible In-Memory-Datenbank. Die Datenbank wurde von den beiden ehemaligen Facebook-Programmierern Eric Frenkiel und Nikita Shamgunov als eine hochperformante In-Memory-Alternative zu MySQL entwickelt.
MemSQL ist beim Schreiben der Daten bis zu 30-mal schneller als MySQL. Anfragen an die MemSQL-Datenbank gelingen zuverlässig mit einer extrem kurzen Antwortzeit.
Unser Artikel erklärt Ihnen, warum MemSQL eine gelungene Alternative zu MySQL darstellt und wie Sie vom Einsatz der In-Memory-Datenbank profitieren.
MemSQL: Die MySQL Datenturbo-Alternative
MemSQL ist eine zu MySQL voll kompatible In-Memory-Datenbank. Die Datenbank wurde von den beiden ehemaligen Facebook-Programmierern Eric Frenkiel und Nikita Shamgunov als eine hochperformante In-Memory-Alternative zu MySQL entwickelt.
MemSQL ist beim Schreiben der Daten bis zu 30-mal schneller als MySQL. Anfragen an die MemSQL-Datenbank gelingen zuverlässig mit einer extrem kurzen Antwortzeit.
Unser Artikel erklärt Ihnen, warum MemSQL eine gelungene Alternative zu MySQL darstellt und wie Sie vom Einsatz der In-Memory-Datenbank profitieren.
Diese 5 Schritte schützen Ihr Hadoop-Cluster vor Angriffen
Immer wieder werden Hadoop-Cluster-Anwender Opfer von Hacker-Angriffen. Die Hacker haben es dabei vor allem auf das Hadoop-Distributed-File-System (HDFS) abgesehen und greifen bei ihren Angriffen die Daten der Handoop-Datenbanken ab. Von den Angriffen sind weltweit mehrere Tausend Installationen betroffen.
In unserem Ratgeber zeigen wir Ihnen 5 einfache und geniale Schritte, wie Sie Ihre Handoop-Installationen sichern und die Hacker außen vor halten.
Hadoop Yarn: der Big-Data-Turbo für Ihre Cluster-Umgebung
Das Hadoop Yarn-Framework bearbeitet Daten parallel und verteilt sie in einer Cluster-Umgebung mittels Container. Verschiedene Anwendungen werden auf speziellen Hosts voneinander getrennt, sodass sich die Ressourcenleistung Ihres Clusters erheblich verbessert.
Die hohe Verarbeitungsgeschwindigkeit von Yarn sorgt unter anderem dafür, dass Sie große Datenmengen effektiver verarbeiten und Ihr Hadoop-Cluster besser auslasten.
Erfahren Sie mehr zu den Vorteilen von Hadoop Yarn.
Wie du mit Data Design Thinking deine Datenstrategie entwickeln
Bringt dein Datenprojekt keinen ROI und trittst du auf der Stelle? Oft scheitert es bereits beim Planen der richtigen Datenstrategie, da hier entscheidende Fehler gemacht werden. Wir zeigen dir im Video mit Data Design Thinking einen neuen Ansatz, mit dem du datengetriebene Lösungen entwickest, Stakeholder-Perspektiven besser verstehst und eine optimale Datentechnologie nutzt.
Infobright: Intelligente Datenkompression für hohe Schnelligkeit bei Analysen
Haben Sie mit einer ständig wachsenden Datenmenge und steigenden Kundenerwartungen zu kämpfen, aber Ihre IT-Ressourcen sind nur begrenzt?
Mit der modernen Data Warehouse-Architektur Infobright analysieren Sie Ihre Daten äußerst flexibel in Turbogeschwindigkeit. Sparen Sie deutlich an Kosten, denn dank hochmoderner Datenkompression verbrauchen Ihre riesigen Datenmengen deutlich weniger Speicherplatz.
In unserem Artikel stellen wir Ihnen die Vorteile von Infobright vor und wie Sie damit Ihre Daten spürbar flexibler – auch bei nur begrenzten IT-Ressourcen – verarbeiten und auswerten.
Das sind die 10 wichtigsten Big Data-Technologien
Verschaffen Sie sich schnell einen Überblick über die 10 wichtigsten Big Data-Technologien wie Hadoop, Cloudera, Apache Hive und 7 weiteren Technologien. Nach dem Lesen des Ratgebers wissen Sie, welche Big Data-Technologien für Ihr Unternehmen am besten geeignet ist.
Cloudera Impala: Schnelle Datenabfrage für das Hadoop-System
Möchten Sie das Maximale beim Analysieren und Verarbeiten von Big Data aus Ihrem Hadoop-Ökosystem herausholen – ohne zusätzliche Kosten?
Impala intergiert sich problemlos in Ihr Hadoop-System und dient als verteiltes Datenabfragetool. Mit Impala führen Sie Low Latency-Abfragen von Daten aus Ihrem Hadoop Distributed File System (HDFS) und HBase durch.
Da Impala für die Abfragen keine Daten bewegt und umwandelt, ist Impala schneller als Hive oder MapReduce.
Wenn Sie SQL beherrschen, sparen Sie Zeit, da Sie mit dem Entwicklungsmodell von Impala nicht jedes Mal ein neues Java-Programm schreiben müssen.
Apache Hive: leichtes Lesen, Schreiben und Verwalten großer Datensätze
Dank des MapReduce-Algorithmus von Apache Hive sind Sie in der Lage, Ihre Daten aus relationalen Datenbanken in Hadoop zu migrieren.
Hive arbeitet mit dem Schema-on-Read-Ansatz (SoR). Ihre Daten werden unverändert im HDFS abgelegt und erst bei Anfragen mittels „ETL on the fly“ gegen das Schema geprüft. Dieser Ansatz lädt Ihre Daten wesentlich schneller und erspart das Parsen, Lesen und Konvertieren in das datenbankinterne Format.
Erfahren Sie in unserem Artikel mehr über die zahlreichen Vorteile von Hive und migrieren Sie Ihre Daten erfolgreich mit Apache Hive in Hadoop.
MongoDB: schnelles Bereitstellen Ihrer strukturieren und unstrukturierten Daten
Haben Sie große und unstrukturierte Datenmengen und möchten diese schnell auswerten und analysieren? MongoDB stellt Ihnen Ihre Daten bereits nach wenigen Augenblicken zur Verfügung.
Egal, ob Ihre Daten strukturiert oder unstrukturiert vorliegen: Die NoSQL-Datenbank MongoDB arbeitet dokumentenbasiert und skaliert über mehrere Server. Dadurch haben Sie in kürzester Zeit auf Ihre Daten, egal ob diese strukturiert oder unstrukturiert vorliegen.
Genießen Sie dank der Schemafreiheit von MongoDB maximale Flexibilität, denn dank des dynamischen Schemas von MongoDB passt sich diese Ihren Daten jederzeit an.
In-Memory-Datenbank: alle wichtigen Infos zum Performance-Arbeitstier
In-Memory-Datenbanken nutzen – im Gegensatz zu herkömmlichen Datenbanken – den Arbeitsspeicher als Datenspeicher. Das ermöglicht schnelle Datentransferraten und Zugriffszeiten.
Da es sich beim Arbeitsspeicher nur um einen flüchtigen Speicher handelt, bieten viele In-Memory-Datenbanken clevere Ansätze, Daten dauerhaft zu speichern.
Die hohe Datenverarbeitungs-Geschwindigkeit und trotzdem Daten persistent zu speichern, machen In-Memory-Datenbanken zu einer ernsthaften Alternative gegenüber herkömmlichen Datenbanken.
Mit dieser Katalogsoftware ordnen Sie Daten im Data Lake automatisch zu
Im heutigen Data Lake-Zeitalter benötigen Sie Ordnung in Ihrem Datensee. Mit einem Datakatalog organisieren Sie Ihre Daten und schaffen Übersicht. Unser Whitepaper zeigt Ihnen, wie Sie mit der KI-basierten Katalogsoftware Lumada die Daten in Ihrem Data Lake automatisch zuordnen.
Big Data mit GPU Power: in Blitzgeschwindigkeit Datenmengen auswerten
Mit Hadoop in Kombination mit der BI-Suite von Jedox sparen Sie jede Menge Zeit. Sie können mit diesem Dream-Team Cubes 100-mal schneller befüllen und Auswertungen vornehmen.
Der clevere Cube-on-Demand-Ansatz ermöglicht es Ihnen, gewünschte Abfrageelemente mit einfachen Klicks zu einem neuen Analyse-Cube aufzubauen. Auf diesem können Sie turboschnelle Auswertungen durchführen.
Zudem können Sie dank des Cube-on-Demand-Ansatzes ohne große IT-Kenntnisse oder ein tieferes Verständnis von ETL-Prozessen aus einem Bericht heraus ETL-Jobs mühelos starten.
Lesen Sie in unserem Artikel, welche weiteren Vorteile Ihnen Jedox und Hadoop bringen und wie Sie Analysen und Berechnungen im Handumdrehen durchführen.
Apache Storm: skalierbare Echtzeitdaten-Analyse im Big-Data-Umfeld
Wenn Sie im Big-Data-Bereich tätig sind, steht Ihnen mit Apache Storm eine Big-Data-Solution zur Verfügung, die fehlertolerant und gleichzeitig skalierbar Ihre Daten in Echtzeit verarbeitet. Die Verarbeitung verläuft dabei im Hintergrund, während Ihre Daten gleichzeitig von Apache Storm ausgegeben werden.
Die Vision von Storm-Erfinder Nathan Marz war gleich zu Beginn klar. Das System sollte – basierend auf der Echtzeitverarbeitung von Daten – die Datenbanken aktualisieren, die Ausgabe der Ergebnisse fortlaufen berechnen und mithilfe verteilter Remote Procedure Calls (RPCs) rechenintensive Anfragen parallelisieren.
Unser Artikel verrät Ihnen, wie Sie Apache Storm für Ihr Unternehmen ideal einsetzen und welche Vorteile das System für die Echtzeitverarbeitung Ihrer Daten hat.
Modernes Datenmanagement beschleunigt Ihre digitale Transformation
Modernes Management benötigt smarte Lösungsansätze mit den richtigen Tools. Unser Whitepaper zeigt Ihnen auf, wie Sie modernes Datenmanagement betreiben und welche Tools sich dafür ideal eigenen.
Apache Spark: Schnelles Verarbeiten auch bei großen Datenmengen
Große Datenmengen auf geclusterten Computern schnell verarbeiten? Apache Spark ist für diese Aufgabe die perfekte Lösung. Schon Pinterest- und Airbnb-Admins sind auf den Geschmack dieser Technologie gekommen. Die In-Memory-Funktion von Spark ermöglicht es, Daten in kürzester Zeit zu verarbeiten.
Bei paralleler Datenverarbeitung verteilt Spark gekonnt die Jobs in den Arbeitsspeicher. Das hält Zugriffe auf das Hadoop Distributed File System (HDFS), HBase, Apache Hive oder Cassandra gering.
Als flexible Hochgeschwindigkeitslösung verarbeitet Spark sowohl Batch-orientierte als auch iterative oder Streaming-Analysen meisterhaft.
Lesen Sie mehr, wie Spark auch Ihre Datenmengen beschleunigt und welche Vorteile das System für Sie hat.
So profitieren öffentliche Behörden durch Open Source-Technologien
Möchten Sie als öffentliche Behörde mit Open Source den nächsten Schritt hin zu einer digitalen Infrastruktur gehen? Das Whitepaper zeigt Ihnen die Vorteile Open Source-basierter Technologien unter Berücksichtigung des öffentlichen Sektors auf. Bereits erfolgreich umgesetzte Praxisbeispiele runden die Broschüre ab.
Jedox und Hive on Spark: Ihr Dreamteam für komfortable Datenanalyse
Viele Unternehmen stehen vor einer großen Herausforderung, wenn sie riesige Datenmengen auswerten wollen. Jedox und Hive on Spark helfen Ihnen bei dieser Mammutaufgabe. Bearbeiten und analysieren Sie Ihre großen Datenbestände komfortabel mit diesem Power-Duo.
Als Open Source-Projekt ist Apache Spark Spezialist im Bereich Cluster Computing zur Verarbeitung von großen Datenmengen. In bestimmten Fällen verarbeiten Sie mit Spark Ihre Daten um bis 100-mal schneller als mit MapReduce.
Die Kombination von Big Data-Technologien mit BI-Plattformen ist die ideale Voraussetzung, um Ihre Big Data-Datenbestände mühelos aufzubereiten und auszuwerten.
Erfahren Sie mehr in unserem Artikel.
Connected Car und Big Data: diese Potenziale und Gefahren birgt die neue Technik
Daten sind das neue Öl in der Automobilbranche. Die Digitalisierung hat dafür gesorgt, dass vernetzte Fahrzeuge die Mobilität und den Straßenverkehr nachhaltig verändert haben.
Das „Connected Car“ ist bei der aktuellen Fahrzeuggeneration bereits Standard. Dank zahlreicher Komfortfunktionen wie das Umfahren von Staus, hochmoderne Entertainment-Systeme mit aktuellen Wetter- und Verkehrsmeldungen und Zugriff auf diverse Internet-Angebote machen das Auto zu einem fahrbaren Smart-Mobil mit modernster Technik.
Doch die neue Smart-Mobilität birgt zahlreiche Risiken, die wir unter anderem in unserem Artikel beleuchten.
Mit diesen 10 Big Data-Technologien holen Sie maximalen Nutzen aus Ihren Daten
Daten sind das Gold eines jeden Unternehmens. Richtig verarbeitet und ausgewertet, können Sie mithilfe Ihrer Daten Produkte individualisieren, Kundenbeziehungen verbessern, den Umsatz steigern und neue Innovationen entwickeln.
Mit der richtigen Big Data-Technologie gewinnen Sie wertvolle Erkenntnisse aus Ihren Daten, die Ihr Unternehmen wertvoller machen und Ihnen einen klaren Wettbewerbsvorteil gegenüber Ihrer Konkurrenz verschaffen.
Unser Artikel verrät Ihnen die 10 Big Data-Technologien, die Ihnen dabei helfen, aus Big Data den maximalen Nutzen für Ihr Unternehmen zu ziehen.
Apache Hadoop: Speichern und analysieren Sie kostengünstig Ihre Daten
Apache Hadoop wurde ursprünglich für Internet-Größen wie Facebook, Google und Yahoo entwickelt. Daher kommt Hadoop bestens mit großen Datenmengen zurecht und bleibt dabei durch hochskalierbare Server-Cluster sehr schnell.
Analysieren Sie Ihre Daten flexibel, kostengünstig und hochperformant. Sie können mit Hadoop nicht nur riesige Datenmengen speichern, sondern auch Rohdaten, die Sie für spätere, wertvolle Analysen nutzen können.
Hadoop verarbeitet Ihre Daten über voneinander verteilte Systeme, die unabhängig voneinander ihre Aufgaben erfüllen, was zu einer schnellen Verarbeitungsgeschwindigkeit führt.
Erfahren Sie mehr über die Vorteile von Hadoop in unserem Artikel.