Datenintegration als Grundlage für Industrie 4.0

Inhalt

Manche stehen noch am Anfang, andere sind schon mittendrin: Viele produzierende Unternehmen haben ihre Industrie 4.0-Initiative erfolgreich auf den Weg gebracht. Sie sind dabei, Produktionsprozesse und ganze Wertschöpfungsketten zu digitalisieren. Für alle gilt: Es braucht ein tragfähiges Konzept für die Sammlung, Speicherung und Auswertung der vielen Daten, die im Zuge der Digitalisierung von Fertigungsprozessen anfallen. Ohne die Integration dieser Daten ist Industrie 4.0 nicht denkbar. 

Ziele von Industrie 4.0-Initiativen

Im ersten Beitrag widme ich mich der wichtigsten Frage – was ist das Ziel einer Industrie 4.0-Initiative? Weshalb sollten Unternehmen auf eine digitale Produktion setzen? Und: macht es Sinn für jeden, auf das Pferd aufzuspringen?

Viele Industrieunternehmen haben bereits ihr Industrie 4.0-Projekt gestartet und sind dabei, immer mehr Daten entlang ihrer Produktionsprozesse und Wertschöpfungsketten zu erheben. Eine gelungene Integration aller Datenströme stellt das Fundament für wichtige Anpassungen der Produktion dar, um beispielsweise die Gesamtanlageneffektivität oder die Gesamtproduktionseffektivität zu steigern.

Tragfähige Konzepte für die Datenintegration und -analyse schaffen gemeinsam mit leistungsfähiger Technologie die Basis für erfolgreiche Industrie 4.0-Initiativen.

Ziel ist es, Lösungen umzusetzen, die

  • die Auslastung von Produktionsanlagen, die Qualität der Produkte und die operative Effizienz auf der Basis von Daten verbessern.
  • entlang ganzer Prozessketten dabei unterstützen, in Fast-Echtzeit Erkenntnisse aus den Daten zu gewinnen, und es ermöglichen, auf Basis aktuellster Daten zu agieren.
  • den Produktionsverantwortlichen auf unterschiedlichen Ebenen neue Fakten über Werke und Anlagen liefern, um Erkenntnisse aus Top-Performer Werke/Anlagen auf weniger produktive Werke/Anlagen zu übertragen.

Um die Möglichkeiten und die zahlreichen Vorteile einer digitalisierten Produktion zu nutzen, müssen Unternehmen in drei Bereichen tätig werden: Daten, Datenintegration und Datenanalyse. Der Kern von Industrie 4.0-Initativen besteht aus Informationen, ihrer Integration und ihrer Auswertung. Sie sind können nur dann erfolgreich werden, wenn sie alle drei Bereiche berücksichtigen.

Daten: ein besonderer Rohstoff in der Produktion


Industrie 4.0 ist undenkbar ohne Daten. Im Kern von Smart Manufacturing und anderen Ansätzen liegt die Integration von Informationen aus verschiedenen Quellen und ihre Auswertung. Im zweiten Teil der Serie gehe ich auf die Rolle von Produktionsdaten als Rohstoff für die Wertschöpfungskette ein, sowohl im wörtlichen als auch im übertragenen Sinn.

Die klassische Industrie 3.0 hat einen hohen Optimierungsbedarf, was die Nutzung von Daten zum Generieren von Wissen betrifft. Produktionssysteme dieser Generation weisen eine starke Fragmentierung in Datensilos auf. Sie sind kaum vernetzt, sodass keine ganzheitliche Betrachtung von Prozessen möglich ist. Diese mangelnde Integration resultiert beispielsweise in dem typischen Problem, dass verschiedene Sichten auf die Fertigung, ja „unterschiedliche Wahrheiten“ existieren und dadurch suboptimale Entscheidungen getroffen werden. Eine Betrachtung und Verknüpfung von internen wie externen Daten findet häufig nicht statt.

Weniger als ein Prozent der unstrukturierten Daten eines Unternehmens werden gegenwärtig analysiert. Der Anteil unstrukturierter Daten macht allerdings bis zu 80 Prozent aus. Kein Wunder also, wenn man diese Daten „Dark Data“ nennt. Es werden viele Daten erzeugt, die im Anschluss nicht ausgewertet und genutzt werden. Dies liegt beispielsweise daran, dass es viele ältere Anlagen gibt, die eine Übertragung der Daten nicht ohne weiteres zulassen. In solchen Fällen lassen sich die Anlagen durch ein so genanntes Retro-Fitting aufrüsten, so dass auch diese Daten ausgewertet werden können.

Für erfolgreiche Industrie 4.0-Projekte geht es darum, alle Daten aus den relevanten Systemen unterschiedlichster Art und Beschaffenheit zusammenzutragen, zu integrieren und aufzubereiten, um sie beispielsweise für Predictive Maintenance oder Predictive Quality zu nutzen oder die Wertschöpfungskette – auch über mehrere Teilnehmer hinweg – weiter zu optimieren.

Ungeheures Potenzial: Daten in der Produktion


In den Daten von Fertigungsunternehmen steckt ein enormes Potential und dies lässt sich mit geeigneten Applikationen nutzen:

  • Volume – die Datenmenge
    Produktionsanlagen werden mit immer mehr Sensoren ausgestattet, die permanent und in Echtzeit Daten über die unterschiedlichsten Produktionsparameter liefern. In Summe kommen hier beachtliche Datenmengen zusammen, die in leistungsfähigen Systemen gespeichert werden müssen. Big Data-Technologien unterstützen bei der Speicherung, Verarbeitung und Analyse dieser Daten und liefern wertvolle Erkenntnisse.
  • Velocity – die Übermittlungsgeschwindigkeit
    Der Aspekt Geschwindigkeit ist ebenfalls von zentraler Bedeutung. Nutzt man beispielweise eine Applikation zur prädiktiven Wartung, also zur Vorhersage und Vermeidung von Anlagenausfällen, müssen die Informationen zeitnah an die Wartungsmitarbeiter übermittelt werden. Moderne Streaming Analytics-Technologien ermöglichen eine solche Alarmierung und Proaktivität in den operativen Prozessen einer Produktion.
  • Variety – die Datenvielfalt
    Die wahrscheinlich größte Herausforderung bei analytischen Industrie-4.0-Anwendungen liegt in der Vielfalt der Daten. Bevor die Daten zentral zusammengebracht werden, müssen erst unzählige proprietäre Datenquellen angezapft werden. Im Bereich der Sensoren existiert keinerlei Standard, und Daten werden über eine Vielzahl von Formaten und Protokollen geliefert. Es bedarf daher leistungsstarker und flexibler Datenintegrationswerkzeuge zur Überwindung dieser Herausforderungen.

Ausbaustufen bei der Datenintegration in der Fertigung

Ein optimaler Datenfluss versorgt alle wichtigen Systeme in der richtigen Zeit mit den passenden Daten. Dafür lassen sich folgende Stufen identifizieren:

1. Data Warehouse

Fertigungsunternehmen, die am Anfang von Digitalisierungs- und Industrie 4.0-Initiativen stehen, sind zum einen mit einer Vielzahl von Datensilos in ihrer Organisation konfrontiert. Zum anderen drückt die Problematik von Dark Data, da Informationen von Maschinen und Anlagen nur schwer zugänglich sind oder erst entsprechende Sensorik angebracht werden muss. Auf dieser Stufe ist es das Ziel, manuelle Arbeit zu reduzieren und sich auf die Optimierung von kritischen Prozessen zu konzentrieren. Für diese Prozesse ist eine Datenanbindung zu schaffen.

Sodann geht es darum, die Anlagen und Prozesse weiter zu digitalisieren und dadurch die Verfügbarkeit von Daten zu erhöhen. Neben der Integration von Systemen im Shopfloor müssen sukzessive auch weitere IT-Systeme auf Ebene des Werkes und der gesamten Organisation angebunden werden.

Auf dieser Ebene findet man klassische Data Warehouse-Implementierungen, die Daten aus den unterschiedlichen Systemen automatisiert zusammenführen, aggregieren und Kennzahlen bereitstellen. Die Daten sind in der Regel strukturiert und stammen zum Beispiel aus dem Enterprise Resource Planning-System (ERP) oder aus Manufacturing Execution-Systemen (MES). ERP-Systeme enthalten alle wesentlichen Geschäftsinformationen wie beispielsweise zukünftige Kundenaufträge. Bringt man die Daten dieser beiden Systeme zusammen, erhöht sich ihr Informationsgehalt deutlich.

Auf dieser Stufe geht es beispielsweise um den Austausch von Informationen mit Lieferanten und anderen externen Teilnehmern der Wertschöpfungskette oder darum, die Genauigkeit von Forecasts und Prognosen zu erhöhen.

2. Data Lake

In der nächsten Entwicklungsstufe gilt es, mehr Daten zu integrieren und in den Prozessen als Information verfügbar zu machen. Semi- und unstrukturierte Daten müssen angebunden und genutzt werden. Neben der Ausstattung alter Maschinen mit entsprechenden Sensoren, dem Retro-Fitting und der Datenanbindung verschiedener Sensoren müssen auch neue Systeme für die Speicherung und Verarbeitung dieser Informationen geschaffen werden.

Relationale Datenbanken, wie aus dem Data Warehouse-Umfeld bekannt, sind dafür nicht geeignet. Sensordaten, aber auch Video- oder Bilddaten können stattdessen in Data Lakes im großen Umfang gespeichert und analysiert werden. Data Lakes und Big Data-Technologien sind die Basis für alle darauf aufsetzenden Advanced Analytics- und Data Science-Applikationen.

Die Kombination von Informationen aus dem Data Warehouse/Data Lake unterstützt wiederum den Gewinn neuer Erkenntnisse: werden Sensordaten im Rahmen von Predictive Maintenance zur Erkennung möglicher Ausfälle genutzt, bringt die Kombination mit Aufträgen oder Wartungsplänen aus dem Data Warehouse ein ganzheitlicheres Bild der Situation.

3. Near Realtime

Die nächste Stufe setzt auf die Verarbeitung von Daten in Fast-Echtzeit. Die Datenströme werden nicht erst im Data Warehouse oder Data Lake persistiert, sondern direkt dort ausgewertet, wo sie entstehen: nah am Sensor. Analytics „on the Edge“ ermöglicht Probleme bereits im Vorfeld abzuwenden, indem bei Erreichung bestimmter Schwellwerte ein Alarm oder die automatische Abschaltung von Maschinen ausgelöst wird.

Der Einsatz von Edge Analytics im Rahmen der industriellen Automatisierung lohnt sich besonders, wenn folgende Bedingungen vorliegen:

  • die Latenzzeit der Datenübertragung zwischen Sensor und Cloud ist zu hoch
  • die Maschinen sind nicht permanent mit einem Netzwerk verbunden
  • der Transfer sämtlicher Daten ins Rechenzentrum wird zu teuer oder ist technologisch nicht möglich

4. Data Blending

Data Blending bezeichnet die letzte Stufe der Datenintegration. Darunter wird der Prozess der Kombination von Daten aus mehreren Quellen verstanden, um einen analytischen Datensatz für Entscheidungen zu haben. Data Blending ist erforderlich, wenn die Datenintegrationsprozesse und die Infrastruktur eines Unternehmens nicht ausreichen, um spezifische Datensätze zusammenzuführen, die von den einzelnen Geschäftsbereichen benötigt werden. Data Blending wird in Produktionsprozessen genutzt, um Maschinen- und Sensordaten mit anderen Datenbeständen z.B. aus SAP-Systemen zu mischen, um Ausfallzeiten und Kosten zu minimieren.

Datenauswertung: Von der Analyse bis zur Handlungsempfehlung

 

Die Reise beginnt bei der klassischen Auswertung historischer Daten. Sie endet bei Advanced Analytics mit Prognosen für zukünftige Entwicklungen mitsamt Handlungsempfehlungen oder Aufträgen an Prozesse oder andere Teilnehmer der Wertschöpfungskette. Sie besteht aus den folgenden 3 Stufen:

1. Business Intelligence

Auf der ersten Stufe der IT-gestützten Datenauswertung finden sich traditionelle Business Intelligence-Anwendungen. Sie versorgen Fachanwender mit Informationen in Form von Berichten, Dashboards oder Self-Service-Auswertungen. Derartige Lösungen haben im Laufe der Zeit einen hohen Reifegrad bekommen und sind weit verbreitet. Meist handelt es sich um deskriptive Analysen, die historische Daten auswerten. Dadurch erhält man beispielsweise Einblicke in die Performance der Anlagen oder in Wartungsaktivitäten. So lassen sich Vergleiche von Rüstzeiten zwischen Maschinen oder Werken schnell aufdecken, etwa ob es Defizite bei einzelnen Teams oder Standorten gibt.

2. Prädiktive Analysen

Auf der nächsten Stufe stehen prädiktive Analysen auf Produktionsdaten. Es geht dabei weniger um den Blick nach hinten, sondern um Zukunftsprognosen und die Entdeckung versteckter Zusammenhänge in den Daten. Ein Anwendungsbeispiel ist Predictive Quality, also die Überwachung der Qualität von Komponenten und Bauteilen. Machine Learning-Modelle helfen hier, Fehler schnell zu erkennen und mögliche Ursachen zu identifizieren. Resultat solcher Auswertungen sind reduzierte Fehlerquoten und eine Verbesserung der Erstausbeute. Prädiktive Analysen prognostizieren, was als Nächstes passieren kann und eröffnen die Möglichkeit, Problemen proaktiv gegenzusteuern.

3. Präskriptive Analysen

Eine weitere und noch fortgeschrittenere Stufe sind präskriptive Analysen. Sie geben Auskunft darüber, wie Unternehmen mit zukünftigen Herausforderungen umgehen sollten. Sie unterbreiten konkrete Handlungsempfehlungen für anstehende Aufgaben in der Produktion. Die Resultate präskriptiver Analysen zeigen die Aktivitäten auf, die es braucht, um Störungen und Probleme in der Fertigung in Zukunft zu vermeiden.

Im Kontext der Anlagenwartung beispielsweise können Handlungsempfehlungen gegeben werden, zu welcher Zeit und in welchem Abstand Wartungsaktivitäten unter Berücksichtigung von Produktionszielen, Lagerbedingungen und vielen anderen Parametern durchgeführt werden sollten. Bedingt durch geänderte Rahmenbedingungen werden solche Analysen iterativ wiederholt. Die Ergebnisse können beispielsweise in ERP-Systeme zurückgespielt und operationalisiert werden.

 

Am Ziel: Wettbewerbsvorteile realisieren

Im Rahmen einer gelungenen Industrie 4.0-Initiative sorgen leistungsfähige moderne Technologien dafür, dass Wettbewerbsvorteile wirklich realisiert und neue Perspektiven für künftige Produktionsszenarien möglich werden.

McKinsey geht davon aus, dass Industrie 4.0-Applikationen das Potenzial haben, bis 2025 einen Wert von 3,7 Billionen US-Dollar pro Jahr zu erreichen. Fertigende Unternehmen profitieren von folgenden Vorteilen:

  • Produktivitätssteigerung und Kostensenkung: Ungeplante Ausfälle und Stillstandzeiten von Produktionsanlagen bedingt durch Systemausfälle, unvorhergesehene Ressourcenengpässe oder Störungen in der Supply Chain will man durch eine ganzheitliche und vorausschauende Betrachtung der Wertschöpfung weitgehend vermeiden. Kostensenkungen sollen durch die bessere Kenntnis von Kundenbedürfnissen und der Situation der Zulieferer realisiert werden. Neben der Vermeidung von Stillständen können das auch die Optimierung von Rüstzeiten oder die Verringerung von Ausschuss sein.
  • Höhere Genauigkeit von Planungen und Forecasts: Die Berücksichtigung von Daten jenseits des eigenen Unternehmens durch die Integration von Informationen von Lieferanten, Kunden und anderen Marktteilnehmern erlaubt präzisere Vorhersagen von Bedarfen. Basierend auf dieser besseren Informationslage können sowohl die eigenen Produktions- und Logistikprozesse als auch die Zusammenarbeit entlang der Supply Chain verbessert werden.
  • Verkürzung der Zeit des Go-to-Market: Die Optimierung des Informationsflusses entlang der Wertschöpfungskette und die Steigerung der Produktivität erlauben es, die eigenen Produkte schnell und in guter Qualität auf den Markt zu bringen. Der geschickte Umgang mit Daten und deren Auswertung eröffnen zudem zusätzliche Möglichkeiten bei der Entwicklung von neuen Produkten und Dienstleistungen. Auf Kundenwünsche kann durch flexiblere Prozesse und eine bessere Kenntnis des Kunden deutlich individueller eingegangen werden – bis hin zu vollkommen individuell produzierten Gütern.
  • Steigerung der Wettbewerbsfähigkeit: Zufriedenere Kunden, höhere Innovationsfähigkeit und Kostenreduktionen stärken die Wettbewerbsstellung.