Die Anzahl an Daten aus dem IIoT-Umfeld ist aufgrund der vielen Anlagen und Sensoren massiv und benötigt eine Datenpipeline, die alles schnell be- und verarbeitet. Welche Technologien sind am besten geeignet, um den hohen Ansprüchen des industriellen Internet of Things gerecht zu werden?
Das Whitepaper beschreibt, wie Sie Ihre Datenpipeline erfolgreich aufbauen, um mittels MQTT Daten aus einem HiveMQ-Broker-Cluster in einen Apache Kafka-Cluster auf der Confluent Cloud zu integrieren. Anschließend können Sie diese mit ThingsBoard in Echtzeit auswerten und Alerting betreiben.
Der Inhalt unseres Whitepapers
- IIoT-Datenarchitektur mit MQTT und Kafka
- Unterschiedliche Datenformate mit Sparkplug vereinheitlichen
- Daten mit dem MQTT Broker HiveMQ einsammeln
- Daten mit der Confluent Streaming-Plattform verarbeiten und speichern
- Auswerten in Echtzeit und Alerting erstellen mit ThingsBoard
- Kurz erklärt