Bei Datenintegration hat man häufig Data Lakes vor Augen, die aus verschiedenen Unternehmenssystemen gespeist werden. Aber diese Daten sind nicht wertvoll, weil sie nicht sinnvoll miteinander verbunden werden. (mit Wael Elrifai, Global VP of Solution Engineering, Hitachi Vantara)
Mit dem Begriff „Datenintegration“ verbindet man oft die Vorstellung von riesigen Data Lakes, die kontinuierlich aus einer Vielzahl von Unternehmenssystemen gespeist werden. In manchen Unternehmen ist dieses Bild auch nicht weit von der Realität entfernt.
Aber sind diese Daten wirklich wertvoll?
Kurz gesagt: Nein…wenn die Daten in isolierter Form vorliegen. Das Konzept der Datenintegration basiert auf der Fusion oder Verschmelzung von Daten, weil Daten ohne Kontext wenig Sinn ergeben. Zum Beispiel ist ein Sensorsignal für sich genommen nicht sehr aussagekräftig. Wenn dieses Signal nicht mit anderen relevanten Daten kombiniert werden kann, ist es kaum möglich, daraus sinnvolle Schlüsse zu ziehen.
Um das mal in die Praxis umzusetzen: Sie fahren mit dem Auto und der einzige Messwert, den Sie am Armaturenbrett ablesen können, ist die Drehzahl. Wissen Sie, wie schnell Sie unterwegs sind? Vermutlich nicht. Um Genaueres über Ihre Geschwindigkeit in Erfahrung zu bringen, benötigen Sie weitere Informationen. Sie müssen etwa wissen, welcher Gang eingelegt ist, ob die Bremse betätigt wird und vieles mehr.
Datenintegration ist heute wichtiger denn je, da ein Großteil der verfügbaren Informationen durch maschinelles Lernen und künstliche Intelligenz erzeugt werden. Es ist eigentlich ganz einfach: Wenn Sie die Produktivität steigern, Ausfälle reduzieren oder genaue Vorhersagen treffen wollen, müssen Sie Daten aus zwei oder mehreren Systemen zusammenführen (vermutlich sind es eher zehn). Mit zunehmender Komplexität des Geschäftsbetriebs wird jedoch die Erfassung von Daten aus all diesen Quellen immer zeitintensiver.
In der Regel verfügen Unternehmen über mehrere Systeme, die kaufmännische und betriebliche Daten generieren. Dieser Silo-Ansatz erfordert zumeist eine Vielzahl von Tools zur Verwaltung einzelner Systeme, die wiederum die Abläufe im Unternehmen komplexer und ineffizienter machen. Es ist einfach sinnvoll und zweckmäßig, diese Tools zusammenzuführen, um einen ganzheitlichen Blick auf den Kunden zu erhalten („Single Customer View“), was wiederum eine effizientere Arbeit und Kommunikation mit ihm ermöglicht.
„Das Konzept der Datenintegration basiert auf der Fusion oder Verschmelzung von Daten, weil Daten ohne Kontext wenig Sinn ergeben. Wenn sie nicht mit anderen relevanten Daten kombiniert werden können, ist es kaum möglich, daraus sinnvolle Schlüsse zu ziehen.“
Wael Elrifai, Global VP Solution Engineering, Hitachi Vantara
Wo liegt das Problem?
Für verschiedene Personen oder Gruppen innerhalb eines Unternehmens hat der Begriff „Daten“ unterschiedliche Bedeutungen. Eine erfolgreiche Umsetzung der Datenintegration ist daher nicht einfach. Wenn z.B. ein Automobilhersteller vier Fahrzeuge verkauft und eines davon zurückgegeben wird, wie viele Kunden hat er dann? Die After-Sales-Abteilung hat drei Kunden, aber der Marketingbereich hat vier Käufer.
Es kommt also auf den Kontext an.
In vielen Unternehmen ist es schon schwierig genug, auf Daten zuzugreifen – geschweige denn, einen Mehrwert daraus zu ziehen. Betrachtet man die Struktur der Daten innerhalb eines Unternehmens, so sind im Durchschnitt nur 12 % davon geschäftskritisch. Und wenn man nicht einmal diese Daten effizient nutzen kann, hat man ein ernstes Problem. Hinzu kommen bis zu 23 % an redundanten oder veralteten Daten. Die letzten 65 % sind zwar relevant, jedoch zumeist unstrukturiert, unvollständig oder in „verschmutzten“ Data Lakes verborgen.
Den meisten Unternehmen ist es einfach nicht möglich, auf alle geschäftskritischen und weniger wichtigen Daten zuzugreifen bzw. diese zu integrieren und zu analysieren, um relevante, verwertbare Erkenntnisse zu gewinnen und ihre Prozesse und Abläufe entsprechend zu verbessern. Der damit verbundene Arbeitsaufwand ist immens.
Die richtigen Tools können bestimmte Aufgaben deutlich erleichtern. Problematisch ist jedoch, wenn Unternehmen versuchen, möglichst viele Aspekte manuell zu programmieren. Das ist immer ein sehr kosten-, ressourcen- und zeitintensiver Prozess. Die meisten Unternehmen sind schon heute in der Lage, nach dem ETO-Prinzip (ETO: Engineer to Order) auftragsbasiert zu produzieren und dabei strukturierte Daten aus entsprechenden Quellen zu integrieren. Wenn es jedoch darum geht, durch die zusätzliche Nutzung von unstrukturierten Daten den nächsten Reifegrad der Datenintegration zu erreichen, sind viele aufgrund fehlender Technologien oder Kompetenzen überfordert.
Wenn man so etwas intern umsetzen möchte, braucht man hochqualifizierte Mitarbeiter, die jedoch sehr schwer zu finden sind. Und ein solches Unterfangen geht weit darüber hinaus, ein bestimmtes Tool oder eine Technologie zu beherrschen. Es braucht genauso ein angemessenes Rahmenkonzept und die richtigen Methoden: Man muss die Tücken kennen und wissen, woraus der größte Nutzen gezogen werden kann.
Zahlt sich das wirklich aus?
Wenn man bei der Datenintegration alles richtig macht, ist der Nutzen riesig. Einen der wichtigsten Vorteile bezeichnet das Analystenhaus Gartner als Modus 1 in der Entwicklung einer bimodalen IT. In diesem Bereich soll primär die Effizienz gesteigert werden: Zeit- und Kosteneinsparungen durch die Nutzung vorhandener Tools und durch das Einbringen der Branchenexpertise von Experten. Zusätzlich geht es auch darum, Produkte schneller auf den Markt zu bringen. Es ist beispielsweise durchaus möglich, für ein bestimmtes Projekt 200 anstatt 1.000 Arbeitsstunden zu brauchen.
Einen weiteren wichtigen Vorteil nennt Gartner Modus 2. In diesem Bereich sollen in erster Linie durch die Förderung von Innovationen die Arbeitsergebnisse verbessert werden. Woran es jedoch in vielen Unternehmen mangelt, sind die dafür erforderlichen Schlüsselkompetenzen. Beispielsweise weiß vielleicht niemand so richtig, wie man Big Data-Plattformen aufbaut oder maschinelles Lernen in der Produktion einsetzt. Stattdessen werden wie gewohnt alte Geschäftsprozesse durchgespielt, z.B. die vorausschauende Instandhaltung, die seit 75 Jahren bekannt ist. Und selbst diese Arbeitsschritte werden nicht effizient erledigt, weil sie oft noch auf statistischen Verfahren wie der Regressionsanalyse basieren, deren Anfänge bereits mehrere Jahrhunderte zurückliegen.
Neben Kosteneinsparungen bietet eine angemessen umgesetzte Datenintegration die Möglichkeit zur Erschließung zahlreicher Funktionen mit hohem Mehrwert. Der richtige Prozess kann unter anderem eine genauere Planung ermöglichen, die operative Effizienz steigern, neue Ertragschancen eröffnen und die Kundenbindung stärken.
Im Grunde geht es um Folgendes: Je besser Daten vorbereitet und integriert werden, desto mehr Nutzen kann daraus gezogen werden.
Um nochmals das Beispiel der vorausschauenden Instandhaltung aufzugreifen: Sensordaten sind zwar unstrukturiert, aber trotzdem sehr wertvoll, weil sie dazu genutzt werden können, Maschinenausfälle vorherzusagen. Das eigentliche Ziel wäre jedoch, durch eine proaktivere Maschinensteuerung Probleme zu vermeiden und auf diese Weise Ausfälle zu reduzieren. Im nächsten Schritt kann man solche Informationen natürlich mit kaufmännischen Daten kombinieren, um festzustellen, welche Kunden durch den Ausfall einer bestimmten Maschine betroffen wären, um effektiver reagieren zu können. Diese Schritte habe ich in einem eigenen Whitepaper näher beleuchtet.
Der „Stairway to Value“
Die Datenreise eines Unternehmens lässt sich gut als „Stairway to Value“ abbilden, der zum Ziel hat, den Return on Data bei jedem Schritt zu maximieren. Diese Schritte umfassen die Speicherung, Anreicherung, Aktivierung und Monetarisierung von Daten. Mit den richtigen Technologien können Unternehmen Data Warehouses, Data Lakes und datengestützte Verfahren entwickeln und auf diese Weise Datensilos aufbrechen.
Die Daten werden für Analysen herangezogen und in entsprechend aufbereiteter Form Entscheidungsträgern zur Verfügung gestellt, z.B. als intuitive und benutzerfreundliche Dashboards. Anschließend können aus diesen Daten verwertbare Erkenntnisse gezogen werden. Mit den richtigen digitalen Prozessen kann das Kundenunternehmen dann viel datenorientierter vorgehen.
Ein weiterer wichtiger Bereich ist die Datenmonetarisierung, z.B. durch den Datenaustausch mit Geschäftspartnern entlang der Lieferkette. Wenn Sie beispielsweise als Zulieferer eines Automobilherstellers über Informationen verfügen, die Ihr Kunde zur Optimierung seiner Fertigungsverfahren und zur Kosteneinsparung nutzen kann, können Sie diese Daten monetarisieren. Der Wert Ihrer Daten ist unumstritten, wenn sie Ihren Geschäftspartnern Vorteile verschaffen.
Warum jetzt handeln?
Das Kontextualisieren, Analysieren und Monetarisieren von Daten ist heute ganz einfach eine wirtschaftliche Notwendigkeit. Unternehmen, die sich gegen die digitale Transformation und die Datenverwertung sträuben, vergeben Wachstumschancen und laufen Gefahr, letztendlich zu scheitern.
Es besteht unmittelbarer Handlungsbedarf. Unternehmen müssen die Time-to-Market verkürzen und neue Potenziale freisetzen, denn die Konkurrenz schläft nicht. Dies gilt insbesondere für wettbewerbsintensive Branchen wie die Fertigungs- und die Konsumgüterindustrie, den Versorgungssektor und den Einzelhandel. Deshalb schaffen auch immer mehr Unternehmen aus strategischen Gründen die Position des Chief Data Officer (CDO).
Es ist ein echter Überlebenskampf: laut Harvard Business Review haben seit dem Jahr 2000 52 % der Fortune- 500-Unternehmen Insolvenz angemeldet bzw. wurden übernommen oder durch digitale Geschäftsmodelle verdrängt. Durchgesetzt haben sich datenorientierte Anbieter wie Amazon und Netflix. Was das eigene Marktverhalten betrifft, ist demnach Stabilität keine Tugend. Wenn Sie noch immer dasselbe tun wie vor dreißig Jahren, wird Ihr Unternehmen in zehn Jahren ziemlich sicher nicht mehr existieren.
Unter dem Strich ist eine effektive Datenintegration unerlässlich, wenn Sie für die Zukunft gewappnet sein wollen.
Diese Artikel könnten Sie auch interessieren: