Mediathek

6 results available.

Medium

Thema

Artikel

Versicherungen kämpfen mit komplexen Datenwelten, isolierten Silos und unklarer Datenherkunft. Der Open-Source-Datenkatalog DataHub sorgt hier für Klarheit: Mit automatisierter Metadaten-Erfassung und Data Lineage speziell für Oracle-Umgebungen werden Transparenz, Qualität und Compliance massiv verbessert. Erfahren Sie, wie DataHub Datenmanagement effizient gestaltet – und warum Ihr Unternehmen davon profitieren wird.

Artikel

Entdecke, wie Trino die Datenintegration und -discovery revolutioniert. Diese leistungsstarke Open-Source-Query-Engine ermöglicht es dir, nahtlos auf Daten zuzugreifen, die in verschiedenen Quellen gespeichert sind. Profitiere von einer schnellen und flexiblen Analyse, die es dir ermöglicht, fundierte Entscheidungen in Echtzeit zu treffen. Verpasse nicht die Gelegenheit, deine Datenstrategie auf die nächste Stufe zu heben!

Artikel

Die riesige Menge an IoT-Geräten und -Sensoren im digitalen Zeitalter benötigt eine robuste IoT-Plattform, um die eingehenden Daten zu empfangen, zu verarbeiten und zu analysieren. ThingsBoard hilft Ihnen, Ihre Geräte zu verwalten, Daten zu visualisieren, Regeln und Alarme zu erstellen und andere Systeme zu integrieren. Gleichzeitig verfügt ThingsBoard über hohe Sicherheits-Standards für Ihre IoT-Anwendungen. In unserem Artikel erklären wir neben den zahlreichen Features auch diverse Use Cases wie Smart Factory, Smart City und Gebäudeautomatisierung, für die ThingsBoard ideal geeignet ist. Bilder aus der Software geben Ihnen zusätzlich einen ersten Eindruck der benutzerfreundlichen Oberfläche.

Artikel

Erlebe, wie du alte Maschinen fit für das digitale Zeitalter machen kannst! Mit Digital Retrofitting integrierst du analoge Anzeigen in moderne Produktionsumgebungen. Entdecke innovative Technologien wie Kameras und IoT-Plattformen, die deine Anlagen effizienter und analysierbarer machen.

Artikel

Stehen Sie am Start eines IoT- oder IIoT-Projetks und brauchen einen zuverlässigen MQTT-Broker? Dann ist der HiveMQ MQTT Broker die perfekte Wahl, um entfernte Geräte mit geringem Code-Fußabdruck und minimaler Netzwerkbandbreite zu verbinden. Unser Artikel erklärt Ihnen, wie Sie mithilfe des HiveMQ MQTT Brokers stabile Kommunikation zwischen Client und Broker herstellen, die gleichzeitig hochperformant ist und die Ressourcen schont. Der Artikel geht auch auf die Vorteile von HiveMQ mit Sparkplug gegenüber der OPC Unified Architecture (OPC UA) ein. Dabei haben wir für Sie in einer übersichtlichen Tabelle die wichtigsten Unterschiede in einem Vergleich aufgeschlüsselt. Im Abschluss erfahren Sie, wie Sie dank der nativen Erweiterung HiveMQ MQTT und die Confluent Streaming-Plattform miteinander kombinieren, um MQTT-Nachrichten zentral zu speichern.

Artikel

Kafka Streams, eine leistungsstarke Open-Source Java Bibliothek, ist der Schlüssel zur Echtzeitverarbeitung im Apache Kafka Ökosystem. Mit ihr können Datenströme in Echtzeit analysiert und verarbeitet werden, ohne auf externe Frameworks oder Bibliotheken angewiesen zu sein. Doch oft bleibt Kafka Streams für viele ein Mysterium. Wir haben die Lösung! Entdecke unseren ganzheitlichen Quickstart-Demo, der dir in nur 10 Minuten zeigt, wie du Kafka Streams nutzen kannst, ohne aufwendige Konfigurationen vornehmen zu müssen.

Artikel

Ein Data Warehouse ist meisterhaft darin, historische Daten auszuwerten und zu analysieren. Im digitalen Zeitalter werden jedoch schnelle Entscheidungen benötigt, um zeitnah auf die sich ändernden Situationen zu reagieren. Herkömmliche Data Warehouse-Lösungen sind für Echtzeitdatenverarbeitung zunächst nicht geeignet. In unserem Artikel lesen Sie, wie Sie in 5 Schritten Ihr Data Warehouse um Data Streaming erweitern, damit Sie Ihre Prozesse in Echtzeit steuern, analysieren und optimieren können.

Artikel

ThingsBoard und Thinger gehören zu den zwei Big Playern unter den Open Source IoT-Plattformen. In diesem Artikel gehen wir auf die wesentlichen Unterschiede ein und erklären Ihnen in Kurzform, welche der beiden Plattformen für welchen Zweck am besten geeignet ist. Das erleichtert Ihnen die Auswahl der für Sie passenden IoT-Lösung.

Artikel

Gerade im industriellen Umfeld, etwa in der Produktion oder Logistik, wird eine IoT-Architektur aufgrund zahlreich angeschlossener Geräte und Sensoren schnell zu einem Mamut-Projekt. Hier lauern, besonders bei der Planung eines komplexen IoT-Projekts, so manche Tücken und Fallen.

In unserem Artikel erklären wir Ihnen die fünf größten Probleme, die Ihnen beim Aufbau einer IoT-Landschaft begegnen und geben Ihnen gleichzeitig die Lösungen an die Hand, mit der Sie diese Probleme erfolgreich beseitigen.

Ein direkter Vergleich zwischen ThingsBoard und Thinger hilft Ihnen zudem bei der Auswahl der geeigneten IoT-Plattform. Abschließend präsentieren wir noch 3 IoT-Plattform Use Cases, in denen Anwender verschiedene IoT-Technologien nachhaltig umgesetzt haben.

Artikel

Möchten Sie ThingsBoard flexibel mit eigenen Widgets erweitern und die beliebte IoT-Plattform Ihren Bedürfnissen problemlos anpassen? Dank der integrierten Entwicklungsumgebung in ThingsBoard ist das kein Problem.

Standardmäßig verfügt ThingsBoard bereits über zahlreiche Widgets bzw. Visualisierungsmöglichkeiten, um die meisten Anwendungsfälle abzudecken. Mit eigenen Widgets können Sie die Plattform um eigene Visualisierungsformen ergänzen, eigene Logiken hinzufügen, externe JavaScript-Bibliotheken einbinden und vieles mehr.

Nach dem Lesen unseres Artikels wissen Sie, wie Sie ThingsBoard Widgets erstellen und was die Vorteile eigener Widgets sind.

Artikel

Häufig werden IoT-Daten nah an Maschinen oder Messstationen erzeugt. Von da müssen sie einen langen Weg zur Cloud zurücklegen. Die Latenzzeiten steigen massiv an und Sie können Ihre Daten nicht in Echtzeit verarbeiten.

Edge Computing dagegen verwaltet Ihre Daten direkt am Entstehungsort. Edge Computing sammelt, aggregiert und filtert Ihre Sensoren- und Aktorendaten auf einem Edge Gerät, zum Beispiel einem Edge Computer. Dadurch verteilt sich die komplette Datenlast von der Cloud direkt auf mehre Instanzen und beschleunigt Ihre Datenverarbeitung um ein Vielfaches. Mit ThingsBoard Edge steigen Sie schnell und einfach in das Edge Computing ein. Damit stehen Ihnen neue Möglichkeiten einer raschen IoT-Datenverarbeitung zu Verfügung.

Unser Artikel zeigt Ihnen, wie Sie mit „ThingsBoard Edge“ die Latenzzeiten bei der Datenübertragung rapide senken und Ihre Daten effektiver nutzen.

Artikel

Du möchtest eine IoT-Plattform aufbauen und stehst vor einer Großbaustelle an Aufgaben? Du weist nicht, wo du beginnen sollst?

Eine IoT-Plattform aufzubauen, erfordert die richtigen Tools und Schritte, um nicht in einem Plattform-Rohbau-Chaos zu enden.

Starte von Anfang an richtig. Wir stellen dir in unserem Artikel Open Source- und Closed Source-Tools vor, mit denen du Schritt für Schritt erfolgreich deine eigene IoT-Plattform aufbaust.

Artikel

Social-Media-Riesen wie Facebook und Twitter setzen bereits seit vielen Jahren drauf. Auch unter Entwicklern, Data Scientists und vielen Big-Data-Companies erfreuen sich Graph-Datenbanken wie Neo4j wachsender Beliebtheit.
Graph-Datenbanken stellen Datenbeziehungen in einem für Menschen einfach verständlichen Graphen dar. So vereinfachen sie das Abbilden hierarchischer sowie vernetzter Daten um ein Vielfaches. Dank des NoSQL-Ansatzes machen Sie Abfragen blitzschnell in einem Graphen sichtbar. Danach tauchen Sie tief in die Analyse Ihre Daten ein und gewinnen innerhalb kurzer Zeit einen Rundumblick über Ihre Daten.
Wie genau Neo4j funktioniert, was für Vorteile die Graph-Datenbank für Sie hat und für was genau Sie diese Art von Datenbank verwenden können, erfahren Sie in unserem Artikel.

Artikel

Möchtest du bei SQL-Abfragen keine Zeit verlieren und blitzschnelle Resultate für deine Daten aus Data Warehouses, Data Lakes oder Data Mesh?

Starburst ist die schnellste SQL-Abfrage-Engine und basiert auf der Open Source-Software Trino. Damit verarbeitest und analysierst du deine Daten in Rekordzeit. Verschwende keine Zeit mehr mit langsamen SQL-Engines.

Seine wahre Stärke spielt Starburst bei Big Data Analysen aus. Verarbeite blitzschnell Daten aus Datenquellen wie etwa Hadoop Distributed File System (HDFS), Azure Blob File System (ABFS), AWS Simple Storage Service (S3) und dem Google Cloud Storage.

Artikel

Die digitale Revolution mit dem Industriezeitalter 4.0 ist bereits in vollem Gange. Noch immer gibt es jedoch viele Unternehmen, die Ihre Produktion noch nicht fit für die digitale Gegenwart und Zukunft gemacht haben.

Besitzen Sie ältere Maschinen und Ihre Produktion ist noch nicht für die digitale Produktion 4.0 bereit? Unser Artikel erklärt Ihnen anhand eines Stufen-Modells, wie Sie Ihre Anlagen nach und nach auf den Weg zur intelligenten Fabrik aus- und umrüsten.

Minimieren Sie unter anderem Ihre Kosten und verringern Sie die Ausfallzeiten Ihrer Maschinen Mithilfe der vorgestellten Schritte gelangen Sie nach und nach hin zu einer autonomen Fabrik mit einer durchgehenden Digitalisierung.

Artikel

Apache Hop ist eine effektive Data Orchestration Plattform, mit der Sie Ihre Daten und Metadaten auf einfache Weise orchestrieren. Dabei erleichtert Ihnen die Plattform dank der leicht verständlichen GUI, Ihre Metadaten visuell zu verarbeiten.

Bereits in der Standard-Installation verfügt Apache Hop über 250 Plugins, die Ihnen große Freiheiten in Sachen Konfiguration und Einstellungen geben, um das System an Ihre Wünsche anzupassen. Sie können Hop jederzeit durch weitere Plugins erweitern.

Hop eignet sich hervorragend für IoT-Projekte mit riesigen Datenmengen, on-premise, in der Cloud, auf einem Bare OS oder in Containern und Kubernetes. Unser Artikel erklärt Ihnen die Funktionsweise von Hop und in welchen Szenarien die Plattform auftrumpft.

Artikel

Der Klimawandel hat uns alle fest im Griff und verändert unser Leben auf der Erde nachhaltig. Städte und Kommunen müssen dafür sorgen, dass sich die Schadstoffemissionen erheblich reduzieren. Zu diesen Möglichkeiten gehören unter anderem intelligente Verkehrssysteme, vernetztes Fahren im Öffentlichen Personenverkehr und eine urbane Städte-Infrastruktur.

Emissionsfreie Mobilität gelingt allerdings nur, wenn Städte und Kommunen ihre gesammelten Daten zentral sammeln und auswerten. Dazu müssen die Daten aus unterschiedlichen Datensilos in einem Data Lake integriert, Verkehrsdaten gesammelt und anschließend Daten analysiert werden.

Echten Mehrwert für intelligente Smart City Projekte bekommen Sie als Kommune oder Stadt mithilfe modernster Open Source-Systeme wie ThingsBoard und Pentaho, die Ihre Daten an einem zentralen Platz übersichtlich auswerten und darstellen.

In unserem Artikel beschreiben wir Ihnen die genaue Vorgehensweise bei einem Smart City Ansatz und wie Sie diesen Ansatz auch auf andere Smart-Projekte leicht übertragen können.

Artikel

Die Ansprüche von Kunden und Bürgern in unserer digitalen Welt steigen stetig. Läuft Ihr Unternehmen oder Ihre Behörde der digitalen Revolution hinterher oder droht die digitale Dampfwalze Sie zu überrollen?

Der massive Anstieg des Datenvolumens von IoT-Geräten und -sensoren kann mit starren Technologien aus der digitalen Steinzeit unmöglich bewältigt werden. Bringen Sie daher mit Data in Motion Bewegung in Ihre Daten und verarbeiten Sie diese problemlos in Echtzeit. Streaming-Plattformen wie Confluent nutzen ihre Power, um die Echtzeit-Datenflut gekonnt zu verarbeiten.

Mit Confluent gelingen Ihnen innovative Smart-City-Projekte, Mobilitäts-Services, digitales Bürgerengagement und viele weitere Data In Motion Vorhaben.

In unserem Artikel erklären wir Ihnen, wie Ihnen Streaming-Plattformen wie Confluent den Weg ins moderne Big-Data-Zeitalter erleichtern.

Artikel

Suchen Sie nach einer einfach bedienbaren BI-Software, in der Sie Ihre Daten analysieren und Ihre Unternehmensplanung durchführen können? Möchten Sie alle Daten in übersichtlichen Dashboards dynamisch visualisieren und aussagekräftige Reports generieren, um Ihre Prozesse zu optimieren und Ihr Unternehmen besser zu positionieren?

Jedox unterstützt Office-Anwender dank Excel-Integration besonders einfach beim Erstellen und Auswerten von Berichten, welche auf einem OLAP-Würfel basieren.

Auch Anwender ohne Programmierkenntnisse kommen bei der Datenmodellierung voll auf ihre Kosten. Mit der intuitiven Drag & Drop-Funktionalität lassen sich dynamische und individuell anpassbare Analysen und Reportings mit nur wenigen Mausklicks generieren.

Mit Jedox sind Sie auch in der Lage, zahlreiche Drittanbieter-Systeme wie SAP in kurzer Zeit zu integrieren. Die Predictive Analytics-Funktion hilft Ihnen dabei, wichtige Vorhersagen zu treffen, die für Ihre Unternehmensentscheidungen von immenser Bedeutung sind.

Die Experten von it-novum unterstützen Sie tatkräftig bei der Integration von Jedox in Ihr Unternehmen. Profitieren Sie von unserem Fachwissen und Best Practices im Jedox-Bereich, mit denen Sie dauerhaft Ihren Unternehmenserfolg steigern.

Artikel

Ihnen fehlt der Überblick über Ihre gesamten IoT-Daten und Sie möchten diese aus einer IoT-Plattform heraus verwalten? Mit ThingsBoard werten Sie Ihre IoT-Daten spielend einfach aus und visualisieren diese in dynamischen und übersichtlichen Dashboards. Dadurch erhalten Sie einen perfekten Einblick in die Daten Ihrer Internet of Things Geräte. ThingsBoard ist innerhalb weniger Minuten entweder als On-Premise – oder noch flexibler – skalierbare Cloud-Lösung einsetzbar. Mit den gängigen IoT-Protokollen MQTT, CoAP und HTTP stellen Sie innerhalb kürzester Zeit eine erfolgreiche Verbindung zu Ihren IoT-Geräten her.

Erfahren Sie mehr zur All-In-One IoT-Plattform ThingsBoard in unserem Artikel.

Artikel

Viele IT-Landschaften im Unternehmen – inklusive der SAP-Systeme – sind uneinheitlich und verhindern dadurch, dass Sie Daten gewinnbringend auswerten können. SAP-Systemen sowie Drittanbieter-Apps fehlt dabei häufig die Flexibilität, Berichte über SAP-Tabellen hinweg zu erstellen. Dadurch wird nur ein Bruchteil der Erkenntnisse aus SAP-Daten gewonnen. Die Folge: Geschäftsprozesse können nicht optimiert und wichtige strategische Entscheidung nicht getroffen werden. Dank Pentaho und dem Hitachi Connector for SAP ERP & Business Warehouse werden Ihren Daten aus SAP-Systemen vollumfänglich nutzbar. Kombinieren Sie einfach ihre Daten aus verschiedensten Datenquellen und werten Sie diese mit der leistungsstarken Analytics-Anwendung Pentaho übersichtlich aus.

Artikel

Seitdem die DSGVO im Mai 2018 eingeführt wurde, verirren sich immer mehr Unternehmen im riesigen Verwaltungs- und Rechtedschungel des Datenschutz-Apparats. Was nicht alle Unternehmen wissen, ist, dass sie über das Recht verfügen, DSGVO-kritische Daten in ein gültiges Rechtsformat umzuwandeln.
Mit den Softwarelösungen von Anonos anonymisieren Sie personenbezogene Daten und sind so in der Lage, Daten gesetzeskonform zu analysieren und Daten auszutauschen.
Wehren Sie Nutzungseinschränkungen und Verbote ab und nutzen Sie Ihre Daten sicher gemäß den gesetzlichen Anforderungen.

Artikel

Möchten Sie das Maximum für die Betriebs- und Geschäftsmodelle Ihres Unternehmens und diese perfekt optimieren?

Machine Learning (ML) ist in aller Munde und einer DER Digitalisierungs-Trends. Nutzen Sie die Hilfe von Machine Learning für Betrugserkennung, Diagnosesysteme, Personalisierung von Inhalten, Prognose der Kundenabwanderung (Churn), Empfehlungssysteme und vieles mehr.

Möchten Sie kräftig Zeit bei der Data Preparation sparen und sowohl Machine Learning als auch Visualisierung betreiben? Unser Beitrag und Video zeigen Ihnen wie.

Artikel

Möchten Sie besser für die Zukunft Ihres Unternehmens planen können und Ihren Umsatz steigern?

Heutzutage wird es für Unternehmen immer wichtiger, vorrauschauend planen und handeln zu können. Mithilfe von Predictive Analytics optimieren Sie Ihre Prozesse, verbessern Sie Ihre Geschäfts- und Kundenbeziehungen, gelingen Ihnen schneller Innovationen und steigern Sie Ihren Umsatz.

Unser Artikel zeigt Ihnen anhand von 6 Beispielen aus der Unternehmenspraxis auf, wie Predictive Analytics sich erfolgreich in verschiedenen Bereichen durchgesetzt hat.

Artikel

Für Unternehmen spielt im Zuge der Digitalisierung das Internet of Things eine zentrale Rolle. Geräte und Maschinen stellen dafür jede Menge Daten zur Verfügung. Aber liegen bei dir diese Daten auch in Datensilos brach und verhindern so, dass du wertvolle neue Erkenntnisse gewinnst?

Um alle deine Daten für dein IoT-Projekt zu verwenden und daraus neue Erkenntnisse für mehr Effektivität und Erfolg deines Unternehmens zu gewinnen, unterstützen wir dich mit unserem Experten-Knowhow im IoT-Bereich.

Artikel

Kennen Sie Ihre Kunden so gut, dass Sie genau wissen, was er will?

Kundendaten sind eine Goldmine für Unternehmen. Allerdings können Unternehmen mit den Kundendaten nur etwas anfangen, wenn diese sinnvoll miteinander verbunden werden. Pentaho verbindet Big Data-Daten aus verschiedenen Datenquellen miteinander. Dadurch gelingt Ihnen ein kompletter Einblick in der Verhalten Ihrer Kunden. Lernen Sie Ihre Kunden immer besser verstehen, reagieren Sie schnell auf Kundeninteraktionen und leiten Sie aus Ihren Kundendaten zukünftiges Verhalten Ihrer Kunden ab. Verbessern Sie Ihre Kundenbeziehungen mit Customer Analytics spürbar.

Artikel

Ein Data Warehouse ist eine zentrale Plattform, in der Sie Daten aus verschiedenen Quellen extrahieren, sammeln und sichern können. Aus diesen Daten gewinnen Sie wertvolles Wissen und analysieren diese gewinnbringend. Aufgrund der rasant zunehmenden Datenmenge, welche gleichzeitig auch schnell für Analysezwecke zur Verfügung stehen soll, kommt das bisherige Data Warehouse Konzept an seine Grenzen. Der Data-Vault-Ansatz ermöglicht ihnen eine schnelle, flexible und aufwandreduzierte Modernisierung Ihres Data Warehouse. Lesen Sie in unserem Artikel, wie wir Ihr Data Warehouse mit Data Vault modernisieren oder sogar cloud-fähig machen, damit Sie auch zukünftig den steigenden Anforderungen bezüglich Big Data und Datenanalyse gelassen entgegensehen.

Artikel

Wenn Sie Daten aus SAP-Systemen, Logs, dem Web, Maschinensensoren oder anderen Quellen getrennt voneinander auswerten, entgehen Ihnen entscheidende Erkenntnisse über Ihr Unternehmen, Ihre Kunden sowie den Markt und Zusammenhänge werden nicht klar.
Die Datenintegration Ihrer Daten aus den verschiedenen Quellen ermöglicht es Ihnen, wertvolle Informationen für Anwendungen wie Business Performance Management, Reporting, Dashboards, Scorecards, Online Analytic Processing (OLAP) und Advanced Analytics zu gewinnen.

Als Datenintegrations-Experten zeigen wir Ihnen, wie Sie einen der zentralen Hebel in Ihrem Unternehmen in Bewegung setzen, um Kunden zu binden, Ihren Umsatz zu steigern und mit Ihrem Unternehmen eine Spitzenposition zu erreichen.

Artikel

In-Memory-Datenbanken nutzen – im Gegensatz zu herkömmlichen Datenbanken – den Arbeitsspeicher als Datenspeicher. Das ermöglicht schnelle Datentransferraten und Zugriffszeiten.

Da es sich beim Arbeitsspeicher nur um einen flüchtigen Speicher handelt, bieten viele In-Memory-Datenbanken clevere Ansätze, Daten dauerhaft zu speichern.
Die hohe Datenverarbeitungs-Geschwindigkeit und trotzdem Daten persistent zu speichern, machen In-Memory-Datenbanken zu einer ernsthaften Alternative gegenüber herkömmlichen Datenbanken.

Artikel

MemSQL ist eine zu MySQL voll kompatible In-Memory-Datenbank. Die Datenbank wurde von den beiden ehemaligen Facebook-Programmierern Eric Frenkiel und Nikita Shamgunov als eine hochperformante In-Memory-Alternative zu MySQL entwickelt.
MemSQL ist beim Schreiben der Daten bis zu 30-mal schneller als MySQL. Anfragen an die MemSQL-Datenbank gelingen zuverlässig mit einer extrem kurzen Antwortzeit.
Unser Artikel erklärt Ihnen, warum MemSQL eine gelungene Alternative zu MySQL darstellt und wie Sie vom Einsatz der In-Memory-Datenbank profitieren.

Artikel

Das Auswerten von Geodaten in Kombination mit Personendaten ist einer der wichtigsten Faktoren, Menschenleben zu retten. Personendaten werden mithilfe von Geoinformationssystemen (GIS) gesammelt und anschließend aufbereitet und ausgewertet.
Daten in Echtzeit auszuwerten, ist für Behörden der entscheidende Schlüsselfaktor zur erfolgreichen Corona-Pandemie-Bekämpfung, Verbrechensbekämpfung, Vorbeugung von Massenpaniken oder die Verhinderung von Staus und Unfälle durch Verkehrsüberwachung.
Aufgrund der DSGVO müssen aber in all diesen Anwendungsfällen die personenbezogenen Daten anonymisiert werden.
Die Kombination von ArcGIS, Pentaho und Anonos sorgt dafür, dass die Daten dank dynamischer Pseudonymisierung nur von berechtigten Personen eingesehen und ausgewertet werden können.
Mit diesem starken Trio sind Sie in der Lage, DSGVO-konform zu sein und gleichzeitig die Sicherheit einzelner Personen als auch der Gesellschaft erheblich zu verbessern.

Artikel

Durch die Corona-Pandemie hat das digitale Zeitalter und die Digitalisierung noch einmal ordentlich Schub bekommen. Datenintegration und Datenmanagement spielt daher eine immer wichtigere Rolle in Unternehmen und Behörden.

Die Analytics-Komponenten von Pentaho erlauben es Data Scientists, Data Engineers und allen Fachanwendern, umfangreiche Einblicke in ihre Daten zu erhalten und maßgebliche Geschäftsentscheidungen zu treffen.

Der erfahrende Pentaho-Power-User Jens Junker vom Gashändler VNG berichtet in unserem Artikel, wie er in einem der größten Teilprojekte die Migration von Inubit zu Pentaho erfolgreich meisterte. Außerdem war er mit dem Wechsel zu Pentaho in der Lage, einen massiven Zeitvorteil bei der Übertragung von großen Datenmengen von vormals mehreren Stunden auf jetzt weniger als 20 Minuten zu erreichen.

Artikel

Als Unternehmen müssen Sie sich immer flexibel und bedarfsgerecht auf dynamische Markt-Anpassungen reagieren. Auch Ihr Data Warehouse ist davon betroffen. Doch das Anpassen des Data Warehouse an die aktuellen Markt-Begebenheiten ist häufig schwerfällig und aufwendig.

Mit Data Vault (2.0) steht Ihnen allerdings eine mächtige und gleichzeitig dynamische Modellierungstechnik zur Verfügung, mit der Sie Ihr Data Warehouse schnell und wirkungsvoll anpassen können.

Unser Artikel erklärt Ihnen, was Data Vault genau ist und welche Möglichkeiten Ihnen das Pentaho Data Vault Framework zum Einbinden von Data Vault bietet.

Artikel

Viele Industrieunternehmen haben den Weg hin zur Produktion und Fertigung 4.0 bereits gemeistert. Durch smarte Prognosen konnten sie die Qualität ihrer Fertigungsketten und -prozesse deutlich verbessern.

In unseren vier vorgestellten Use Cases zeigen wir dir auf, wie Unternehmen mithilfe modernster IoT-Technologien wie Pentaho und ThingsBoard ihre Produktqualität verbessern, Produktionsverzögerungen minimieren, mit Predictive Maintenance Ausfallzeiten vermeiden und durch Predictive Quality die Fehlerquote senken konnten.

Dies verschaffte den Unternehmen erhebliche Wettbewerbsvorteile und Leistungssteigerungen in der digitalen Produktion, die auch du dir zunutze machen kannst.

Artikel

Pseudonymisierung mithilfe eines statischen Tokens reicht spätestens seit Einführung der DSGVO nicht mehr aus, um personenbezogene Daten datenschutzkonform zu verarbeiten. Statische Token lassen zu, dass betroffenen Personen ohne die separat aufbewahrten Zusatzinformationen trotzdem zurückidentifiziert werden können. Damit ist Pseudonymisierung durch statische Tokens für den Datenschutz ungeeignet.
Pseudonymisierung durch dynamische Tokens dagegen sorgt dafür, dass anonyme und eindeutige Textdaten datenschutzfreundlich voreingestellt sind und den Datenschutz gewährleisten. Dadurch können Sie sich als Nutzer einen entscheidenden Wettbewerbsvorteil sichern.
In unserem Artikel erfahren Sie, wie Ihnen DSGVO-konforme Pseudonymisierung gelingt.

Artikel

Um als Unternehmen in der Produktion wegweisende Entscheidungen zu treffen, ist eine fundierte Datenbasis nötig. Verstreute Daten ohne direkte Verbindungen verhindern Innovationssprünge und wichtige neue Strategien auf dem Weg zur Produktion 4.0.

Indem du deine gesammelten Informationen aus Datensilos nutzbar machst, gelingt dir die vollständige Rundumsicht über deine Fertigungskette. Das neu gewonnene Wissen aus den gesammelten und analysierten Daten hilft dir bei strategisch wichtigen Entscheidungen dank Prescriptive Analytics erheblich.

Die in unserem Artikel vorgestellten Strategien ebnen dir den Weg zur Produktion 4.0.

Artikel

Es sind 3 Stufen bei der Datenauswertung, die Unternehmen im Industrie 4.0-Bereich den Weg zu deutlicher Produktivitätssteigerung, reduzierten Kosten, mehr Kundenzufriedenheit und Wettbewerbsvorteilen sichern. Die erste Stufe beinhaltet Business Intelligence-Anwendungen. Der Fachanwender bekommt mit ihrer Hilfe detaillierte Informationen in Form von Berichten, Dashboards und Self-Service-Auswertungen. Stufe zwei und drei beinhalten Prädiktive Analysen und Präskriptive Analysen. Dabei handelt es sich bei ersterem um Zukunftsprognosen und bei zweiterem um komplette Handlungsempfehlungen durch diese Systeme.
Unser Artikel verrät Ihnen die drei Stufen im Detail und wie Sie als Unternehmen Ihre Kosten senken, die Produktivität steigern, Vorherhersagen und Planungen wesentlich genauer vornehmen und Ihre Konkurrenz hinter sich lassen.

Artikel

Das Anonymisieren von Daten birgt verschiedene Datenschutzrisiken und hat nur einen begrenzen Wert aus Sicht der DSGVO. Zudem ist der Aufwand für technische Kontrollen sehr hoch.
Angreifer nutzen die drei Angriffsvektoren „Herausgreifen“, „Verknüpfen“ und „Inferenz“, um den Datenschutz zu gefährden. Der Ansatz „Pseudonymisierung“ hilft Ihnen, alle drei Angriffsvektoren erfolgreich zu beseitigen und dabei gleichzeitig die Anforderungen der DSGVO zu erfüllen.

Erfahren Sie in unserem Artikel, wie Ihnen das gelingt.

Artikel

Bisherige Data Warehouse Lösungen sind nicht für moderne Marktgegebenheiten wie Data Sharing, maximale Geschwindigkeit und Flexibilität geeignet. Doch wie können Sie trotzdem Ihr Data Warehouse für die Digitalisierung startklar und zukunftssicher einrichten?

Der Cloud-Spezialist von Snowflake, Rene Medak, verrät Ihnen in unserem Interview, wie mit der Cloud Ihr Data Warehouse den wachsenden Ansprüchen im Zuge der Digitalisierung bestens gewappnet ist.

Rene Medak gibt unter anderem Antworten auf Fragen bezüglich Bedenken der Daten in der Cloud und wie die perfekte Lösung für Unternehmen aussieht.

Artikel

Wenn Sie die Vielzahl Ihrer Daten auswerten möchten, ohne den entsprechenden Zusammenhang zwischen den einzelnen Daten zu kennen, gehen Ihnen wertvolle Erkenntnisse über Ihr Unternehmen, den Markt, Ihre Kunden sowie der Lieferketten verloren.

Häufig verfügen Unternehmen über eine große Anzahl an Systemen, die aus kaufmännischen und betrieblichen Daten bestehen. Verschiedene Tools kommen zum Einsatz, um diese Daten zu verwalten. Doch mit zunehmender Komplexität geht auch der Überblick über die Zusammenhänge verloren.

Datenintegration hilft Ihnen, einen ganzheitlichen Adlerblick auf Ihre Daten zu bekommen und die Zusammenhänge zwischen Ihren einzelnen Daten zu verstehen. Die richtigen Technologien für Ihre Data Lakes, Data Warehouses und datengestützte Verfahren verbessern Ihre Beziehung zu Ihren Geschäftspartnern und Kunden entscheidend und geben Ihnen ein ganzheitliches Marktverständnis.

Unser Artikel zeigt Ihnen auf, warum Datenintegration Ihrem Unternehmen die entscheidenden Erkenntnisse für ein besseres Kunden- und Prozessverständnis liefert.

Artikel

Geodaten mit vorhandenen Daten zu kombinieren und echten Mehrwert aus den Daten zu erzielen, bringt erhebliche Vorteile für Unternehmen und Behörden. So können Polizeibehörden diese Daten für ihre Einsatzplanung nutzen oder Speditionen Fahrzeugflotten verfolgen oder Infrastruktureinrichtungen Wartungsarbeiten überwachen.
Damit Sie Geodaten datenschutzkonform für die Analyse nutzen können, ist Pseudonymisierung nötig.
Unser Artikel beschreibt, wie Sie vorhandene Daten aus Pentaho mit Geodaten datenschutzkonform kombinieren, um wertvolle Informationen mit Mehrwert für Ihre Behörde oder Ihr Unternehmen zu erhalten.

Artikel

Daten sind das Epizentrum der Industrie 4.0. Im Smart Manufactoring Zeitalter ist es das Hauptanliegen, vorhandene Daten aus unterschiedlichen Quellen gebündelt zu sammeln und auszuwerten. Unstrukturierte Daten werden nur in weniger als einem Prozent von den Unternehmen zu Analysezwecken genutzt. Da jedoch unstrukturierte Daten mit knapp 80 Prozent den Großteil der Daten eines Unternehmens ausmachen, geht hier riesiges wertvolles Daten-Knowhow verloren. Damit du diese Daten sammelst, analysierst und anschließend gewinnbringend einsetzen kannst, benötigst du leistungsstarke, mächtige und dennoch flexible Datenintegrationswerkzeuge, die wir in dir in diesem Artikel vorstellen.

Artikel

Im Zuge der technologischen Entwicklungen der letzten Jahre spielt Big Data eine tragende Rolle. Doch die Herausforderungen für Unternehmen und Behörden sind immens. Zum einen stellt Big Data bestehende IT-Systeme vor Probleme und zum anderen sind bestehende Ansätze für den Datenschutz häufig veraltet.
Zu diesen veralteten Ansätzen zählt die Anonymisierung personenbezogener Daten, da diese entwickelt wurde, bevor die Verarbeitung von „Big Data“ populär wurde. Heutzutage sind Daten, die von einem Auftragsverarbeiter gespeichert werden, häufig leicht mit Daten zu verknüpfen, die sich der Kontrolle des Auftragsverarbeiters entziehen, wodurch eine erneute Identifizierung ermöglicht wird und der Auftragsverarbeiter der Haftung für die Verletzung des Datenschutzes ausgesetzt wird. Das führt zu einer unkontrollierten Haftung beim Anonymisierungs-Verfahren.
DSGVO-konforme Pseudonymisierung ist der Weg aus diesem Datenschutz-Dilemma.
In unserem Artikel erfahren Sie, wie Sie mit Pseudonymisierung datenschutzrechtlich auf der sicheren Seite sind und Big Data unbesorgt einsetzen können.

Artikel

Im Zeitalter der Industrie 4.0 liegen in vielen Unternehmen die Informationen aus unstrukturierten Daten nicht vor. Nur 1 Prozent der unstrukturierten Daten nutzen Unternehmen zur weiteren Analyse. Dabei liegt der Anteil brachliegenden Daten (Dark Data) bei bis zu 80 Prozent. Damit gehen dem Unternehmen kostbare Insights verloren.
Um die digitale Produktion im Industrie 4.0-Zeitalter auf ein neues Level zu heben, sind für Sie als Unternehmen besonders 3 Bestandteile wichtig: Daten, Datenintegration und Datenanalyse. Datenintegration hat zum Ziel, Ihre Industrie 4.0-Daten in einen Kontext zu bringen, sodass Sie die Zusammenhänge zwischen den verschiedenen Komponenten und Prozessen wesentlich besser erkennen und optimieren können.
Steigern Sie durch Datenintegration die Auslastung Ihrer Produktionsanlagen, die Qualität Ihrer Produkte und das operative Geschehen Ihres Unternehmens. In unserem Artikel erfahren Sie, wie Ihnen das gelingt.

Artikel

Fiese Hürden versperren oftmals Unternehmen den Weg zum Ziel, Daten gewinnbringend zu nutzen, um Kunden- und Lieferantenbeziehungen sowie Datenqualität deutlich zu verbessern.

Zu diesen Hürden gehören unstrukturierte Daten, lange Ladezeiten mit hohem Ressourcenverbrauch, schlechte Datenqualität, für Stream-Anwendungen ungeeignete Datenarchitekturen und Compliance-Probleme. In unserem Artikel erfahren Sie die 5 hilfreichsten Tipps, mit denen Sie diese Hürden beseitigen. Transformieren Sie Ihre unstrukturierten Daten mit der richtigen Datenintegrations-Strategie in hochwertige Daten und verschaffen Sie sich einen klaren Wettbewerbsvorteil.

Artikel

Integrieren Sie bereits Ihre Daten aus unterschiedlichen Quellen und sind trotzdem noch so schlau wie vorher? Häufig integrieren Unternehmen zwar Daten aus den verschiedensten Quellen, jedoch ohne Kontext, sodass tiefe Einblicke und neue Erkenntnisse ausbleiben. Genau hier lässt Pentaho seine Muskeln spielen. Mit Pentaho integrieren Sie Ihre Daten nicht nur aus unterschiedlichen Quellen, sondern bringen diese auch in Zusammenhänge. Dadurch ergeben sich aus Prozess-, Kunden- und Unternehmensdaten neue Erkenntnisse. In unserem Beitrag lesen Sie von Unternehmen, die Pentaho erfolgreich einsetzen. Hierzu gehören ganz unterschiedliche Use Cases: sie reichen von Machine Learning mit Pentaho über Auswertung von SAP-Daten mit externen Daten bis zu Video-Analytics.

Artikel

Der Digitalisierungszug fährt unermüdlich Richtung smarte Zukunft. Schon jetzt sind Projekte wie Smart Cities, Smart Manufacturing oder Smart Retail keine Seltenheit.

Doch damit Unternehmen und Behörden die richtigen Entscheidungen auf Basis intelligenter IoT-Anwendungen treffen können, müssen sie die Daten aus verschiedenen Systemen miteinander kombinieren. Häufig liegen die Daten in Datensilos verstreut, wodurch wertvolles Daten Know-how brach liegt. Die Folge: Die Konkurrenz eilt davon, smarte Projekte können nicht umgesetzt werden und wertvolle Daten-Potenziale bleiben ungenutzt.
Unser Artikel beschreibt anhand der drei oben genannten Beispiele, wie Sie aus einem unübersichtlichen Datendschungel von SAP- und Drittanbieterdaten mithilfe von Hitachi Vantara Ihre Daten perfekt kombinieren und auswerten.

Artikel

Die meisten Deep-Learning-Anwendungen basieren auf Google populärem TensorFlow-Framework. Mit Hadoop steht Ihnen eine Anwendung mit riesigen Rechen- und Speicherkapazitäten zur Verfügung.

Die Vorteile beider Welten sind in der von LinkedIn entwickelten Open Source-Lösung TonY (TensorFlow on YARN) realisiert worden. TonY ist eine hochskalierbare Plattform, die das Beste aus beiden Anwendungen miteinander kombiniert.

TonY führt verteilte TensorFlow-Trainings als Hadoop-Applikation aus. In unserem Artikel erklären wir Ihnen die genaue Arbeitsweise von TonY und wie TonY ein asynchrones Training mit vielfacher Beschleunigung gegenüber dem CPU-Training erreicht hat.

Artikel

Es gibt verschiedene Machine Learning Frameworks, aus denen ein Unternehmen auswählen kann. Doch nicht jedes Framework ist für jedes Projekt geeignet.

Dr. David James, Data Scientist bei it-novum, hat eine Matrix entwickelt, die Ihnen bei der Auswahl des passenden Frameworks für Machine Learning Use Cases hilft.

Dank der Matrix können Sie in visuell attraktiver Form schnell und einfach herausfinden, welches Machine Learning Framework für Sie am besten geeignet ist.

Artikel

Bevor Sie in Ihrem Unternehmen eine Predictive Analytics-Lösung einführen, gibt es einige wichtige Fragen zu klären. Zu diesen Fragen zählen, was Sie bei der Einführung beachten sollten, welche Vorgehensweise die Sinnvollste ist und wie Sie die neu gewonnenen Erkenntnisse in die Geschäftspraxis umsetzen.

Noch vor der eigentlichen Implementierung müssen Sie beispielsweise im ersten Schritt klären, welche Predictive Analytics-Lösung Sie zukünftig einsetzen möchten. Im nächsten Schritt wird geklärt, wie Sie alle Beteiligten in den Implementierungsprozess einbeziehen. Im letzten Schritt gilt es, wie Sie die Predictive Analytics-Erkenntnisse erfolgreich für Ihr Unternehmen umsetzen.

Erfahren Sie in unserem Artikel, wie genau Ihnen diese 3 Schritte gelingen.
6 results available.

Thema

Medium

6 results available.