Industrie 4.0 ist undenkbar ohne Daten. Im Kern von Smart Manufacturing und anderen Ansätzen liegt die Integration von Informationen aus verschiedenen Quellen und ihre Auswertung. Im zweiten Teil der Serie gehe ich auf die Rolle von Produktionsdaten als Rohstoff für die Wertschöpfungskette ein, sowohl im wörtlichen als auch im übertragenen Sinn.
Die klassische Industrie 3.0 hat einen hohen Optimierungsbedarf, was die Nutzung von Daten zum Generieren von Wissen betrifft. Produktionssysteme dieser Generation weisen eine starke Fragmentierung in Datensilos auf. Sie sind kaum vernetzt, sodass keine ganzheitliche Betrachtung von Prozessen möglich ist. Diese mangelnde Integration resultiert beispielsweise in dem typischen Problem, dass verschiedene Sichten auf die Fertigung, ja „unterschiedliche Wahrheiten“ existieren und dadurch suboptimale Entscheidungen getroffen werden. Eine Betrachtung und Verknüpfung von internen wie externen Daten findet häufig nicht statt.
Weniger als ein Prozent der unstrukturierten Daten eines Unternehmens werden gegenwärtig analysiert. Der Anteil unstrukturierter Daten macht allerdings bis zu 80 Prozent aus. Kein Wunder also, wenn man diese Daten „Dark Data“ nennt. Es werden viele Daten erzeugt, die im Anschluss nicht ausgewertet und genutzt werden. Dies liegt beispielsweise daran, dass es viele ältere Anlagen gibt, die eine Übertragung der Daten nicht ohne weiteres zulassen. In solchen Fällen lassen sich die Anlagen durch ein so genanntes Retro-Fitting aufrüsten, so dass auch diese Daten ausgewertet werden können.
Für erfolgreiche Industrie 4.0-Projekte geht es darum, alle Daten aus den relevanten Systemen unterschiedlichster Art und Beschaffenheit zusammenzutragen, zu integrieren und aufzubereiten, um sie beispielsweise für Predictive Maintenance oder Predictive Quality zu nutzen oder die Wertschöpfungskette – auch über mehrere Teilnehmer hinweg – weiter zu optimieren.
Ungeheures Potenzial: Daten in der Produktion
In den Daten von Fertigungsunternehmen steckt ein enormes Potential und dies lässt sich mit geeigneten Applikationen nutzen:
- Volume – die Datenmenge
Produktionsanlagen werden mit immer mehr Sensoren ausgestattet, die permanent und in Echtzeit Daten über die unterschiedlichsten Produktionsparameter liefern. In Summe kommen hier beachtliche Datenmengen zusammen, die in leistungsfähigen Systemen gespeichert werden müssen. Big Data-Technologien unterstützen bei der Speicherung, Verarbeitung und Analyse dieser Daten und liefern wertvolle Erkenntnisse. - Velocity – die Übermittlungsgeschwindigkeit
Der Aspekt Geschwindigkeit ist ebenfalls von zentraler Bedeutung. Nutzt man beispielweise eine Applikation zur prädiktiven Wartung, also zur Vorhersage und Vermeidung von Anlagenausfällen, müssen die Informationen zeitnah an die Wartungsmitarbeiter übermittelt werden. Moderne Streaming Analytics-Technologien ermöglichen eine solche Alarmierung und Proaktivität in den operativen Prozessen einer Produktion. - Variety – die Datenvielfalt
Die wahrscheinlich größte Herausforderung bei analytischen Industrie-4.0-Anwendungen liegt in der Vielfalt der Daten. Bevor die Daten zentral zusammengebracht werden, müssen erst unzählige proprietäre Datenquellen angezapft werden. Im Bereich der Sensoren existiert keinerlei Standard, und Daten werden über eine Vielzahl von Formaten und Protokollen geliefert. Es bedarf daher leistungsstarker und flexibler Datenintegrationswerkzeuge zur Überwindung dieser Herausforderungen.
1. Data Warehouse
Fertigungsunternehmen, die am Anfang von Digitalisierungs- und Industrie 4.0-Initiativen stehen, sind zum einen mit einer Vielzahl von Datensilos in ihrer Organisation konfrontiert. Zum anderen drückt die Problematik von Dark Data, da Informationen von Maschinen und Anlagen nur schwer zugänglich sind oder erst entsprechende Sensorik angebracht werden muss. Auf dieser Stufe ist es das Ziel, manuelle Arbeit zu reduzieren und sich auf die Optimierung von kritischen Prozessen zu konzentrieren. Für diese Prozesse ist eine Datenanbindung zu schaffen.
Sodann geht es darum, die Anlagen und Prozesse weiter zu digitalisieren und dadurch die Verfügbarkeit von Daten zu erhöhen. Neben der Integration von Systemen im Shopfloor müssen sukzessive auch weitere IT-Systeme auf Ebene des Werkes und der gesamten Organisation angebunden werden.
Auf dieser Ebene findet man klassische Data Warehouse-Implementierungen, die Daten aus den unterschiedlichen Systemen automatisiert zusammenführen, aggregieren und Kennzahlen bereitstellen. Die Daten sind in der Regel strukturiert und stammen zum Beispiel aus dem Enterprise Resource Planning-System (ERP) oder aus Manufacturing Execution-Systemen (MES). ERP-Systeme enthalten alle wesentlichen Geschäftsinformationen wie beispielsweise zukünftige Kundenaufträge. Bringt man die Daten dieser beiden Systeme zusammen, erhöht sich ihr Informationsgehalt deutlich.
Auf dieser Stufe geht es beispielsweise um den Austausch von Informationen mit Lieferanten und anderen externen Teilnehmern der Wertschöpfungskette oder darum, die Genauigkeit von Forecasts und Prognosen zu erhöhen.
2. Data Lake
In der nächsten Entwicklungsstufe gilt es, mehr Daten zu integrieren und in den Prozessen als Information verfügbar zu machen. Semi- und unstrukturierte Daten müssen angebunden und genutzt werden. Neben der Ausstattung alter Maschinen mit entsprechenden Sensoren, dem Retro-Fitting und der Datenanbindung verschiedener Sensoren müssen auch neue Systeme für die Speicherung und Verarbeitung dieser Informationen geschaffen werden.
Relationale Datenbanken, wie aus dem Data Warehouse-Umfeld bekannt, sind dafür nicht geeignet. Sensordaten, aber auch Video- oder Bilddaten können stattdessen in Data Lakes im großen Umfang gespeichert und analysiert werden. Data Lakes und Big Data-Technologien sind die Basis für alle darauf aufsetzenden Advanced Analytics- und Data Science-Applikationen.
Die Kombination von Informationen aus dem Data Warehouse/Data Lake unterstützt wiederum den Gewinn neuer Erkenntnisse: werden Sensordaten im Rahmen von Predictive Maintenance zur Erkennung möglicher Ausfälle genutzt, bringt die Kombination mit Aufträgen oder Wartungsplänen aus dem Data Warehouse ein ganzheitlicheres Bild der Situation.
3. Near Realtime
Die nächste Stufe setzt auf die Verarbeitung von Daten in Fast-Echtzeit. Die Datenströme werden nicht erst im Data Warehouse oder Data Lake persistiert, sondern direkt dort ausgewertet, wo sie entstehen: nah am Sensor. Analytics „on the Edge“ ermöglicht Probleme bereits im Vorfeld abzuwenden, indem bei Erreichung bestimmter Schwellwerte ein Alarm oder die automatische Abschaltung von Maschinen ausgelöst wird.
Der Einsatz von Edge Analytics im Rahmen der industriellen Automatisierung lohnt sich besonders, wenn folgende Bedingungen vorliegen:
- die Latenzzeit der Datenübertragung zwischen Sensor und Cloud ist zu hoch
- die Maschinen sind nicht permanent mit einem Netzwerk verbunden
- der Transfer sämtlicher Daten ins Rechenzentrum wird zu teuer oder ist technologisch nicht möglich
4. Data Blending
Data Blending bezeichnet die letzte Stufe der Datenintegration. Darunter wird der Prozess der Kombination von Daten aus mehreren Quellen verstanden, um einen analytischen Datensatz für Entscheidungen zu haben. Data Blending ist erforderlich, wenn die Datenintegrationsprozesse und die Infrastruktur eines Unternehmens nicht ausreichen, um spezifische Datensätze zusammenzuführen, die von den einzelnen Geschäftsbereichen benötigt werden. Data Blending wird in Produktionsprozessen genutzt, um Maschinen- und Sensordaten mit anderen Datenbeständen z.B. aus SAP-Systemen zu mischen, um Ausfallzeiten und Kosten zu minimieren.