Wie End-to-End Datenplattformen Compliance ermöglichen
Die Finanz- und Versicherungsbranche sieht sich einem stetig wachsenden regulatorischen Druck ausgesetzt. Vorgaben wie BCBS, DORA und MaRisk stellen hohe Anforderungen an die IT- und Datenarchitektur der Unternehmen. Unternehmen müssen ihre IT-Technik so einsetzen, dass sie die Erfüllung dieser Anforderungen unterstützt. Konkret geht es darum, wie IT-Abteilungen mithilfe von End-to-End Datenplattformen die Erfüllung von regulatorischen Anforderungen unterstützen und dazu beitragen können, dass diese Anforderungen erfüllt werden.
Die Kernanforderungen: Nachvollziehbarkeit und Data Governance
Die regulatorischen Vorgaben erfordern eine lückenlose Nachvollziehbarkeit der Daten. Insbesondere für Managementberichte im Bereich MaRisk ist eine hohe Datenqualität zwingend erforderlich, um verlässliche Aussagen und Entscheidungen treffen zu können.
Das europäische Regelwerk DORA (Digital Operational Resilience Act) rückt das Thema Data Lineage (Datenherkunft) verstärkt in den Fokus. Dies bedeutet, dass eine vollständige Dokumentation von Datenflüssen und Abhängigkeiten zu Systemen notwendig ist. Nur so kann im Bedarfsfall eine Auswirkungsanalyse durchgeführt werden, etwa um festzustellen, welche kritischen Prozesse betroffen sind, wenn ein Datenlieferant oder ein System ausfällt.
Zentrale Fragen, die im Rahmen von DORA beantwortet werden müssen, sind:
- Kennen wir unsere kritischen Prozesse und die Daten, die darin fließen?
- Können wir Vorfälle präzise eingrenzen, beispielsweise welche Berichte von einem Datenqualitätsproblem betroffen sind?
- Können wir aus Fehlern lernen, indem wir die Datenqualität messen, darüber berichten und Veränderungen in Echtzeit feststellen?
- Ist eine gesicherte Data Governance implementiert, um revisionssicher berichten zu können, wer für welche Daten und Berichte verantwortlich ist?
Historische Hürden in der IT-Landschaft
Trotz der klaren Anforderungen stehen viele Banken und Versicherungen vor strukturellen Herausforderungen. Häufig sind historisch gewachsene Datensilos, wie beispielsweise Data Warehouses, vorhanden. Hinzu kommen veraltete Technologien und eine oft fehlende Skalierbarkeit der Architektur. Die IT-Architektur muss gewährleisten, dass Daten jederzeit in einer gewissen Zeitvorgabe aggregiert und bereitgestellt werden können.
Ein weiteres Problem sind begrenzte personelle Ressourcen. Mitarbeiter, die Berechnungen oder Datenflüsse implementiert haben, sind möglicherweise nicht mehr im Unternehmen, was die Nachvollziehbarkeit von Berechnungsregeln massiv erschwert. Es gilt, die Situation zu vermeiden, in der die IT im Falle eines Audits nicht in ausreichender Zeit Auskunft geben kann, weil sie erst langwierig nach Daten, Berechnungsregeln oder Verantwortlichkeiten suchen muss.
Pentaho als End-to-End-Datenplattform
End-to-End Datenplattformen wie Pentaho können einen absoluten Mehrwert schaffen, indem sie Funktionalitäten bieten, die genau darauf einzahlen, die regulatorischen Anforderungen in der IT umzusetzen oder zu unterstützen. Pentaho unterstützt die Einhaltung der Vorschriften durch die drei Hauptbausteine: Datenintegration (ETL), Data Governance und Datenqualität.
Die Plattform kann vollständig oder auch teilintegriert und bedarfsweise in die bestehende Architektur genutzt werden, da jedes Unternehmen an einem anderen Punkt steht.
Data Lineage und Datenkatalog: Die Brücke zwischen IT und Business
Der Datenkatalog dient in Kombination mit Data Lineage dazu, die Transparenz zwischen IT und Fachbereich zu schaffen, sodass beide die gleiche Sprache sprechen. Die Data Lineage dokumentiert systemübergreifend, wie Daten aus heterogenen Quellen (z.B. CRM-Daten, Stammdaten aus AS/400 oder MSSQL Server) transformiert und aggregiert werden, bis sie schließlich in einem Report landen.
Der Fachbereich kann direkt sehen, woher eine Kennzahl stammt, und wer der Data Owner ist. Dies ist nicht nur für Auditoren entscheidend, die den kompletten Fluss durch das System nachvollziehen wollen, sondern auch für zukünftige KI-Anwendungen, die wissen müssen, auf welche Datentöpfe sie zugreifen können. Metadaten, wie die Klassifizierung sensitiver Daten, werden dabei sichtbar gemacht.
Datenqualität: Vom Bauchgefühl zur Messbarkeit
Nur weil Daten durch ETL-Strecken fließen, heißt das nicht, dass sie korrekt sind – hier gilt das Prinzip „Garbage in, garbage out“. Datenqualitätsprobleme wie fehlende Werte, Duplikate oder Schemaänderungen im Quellsystem können zu falschen Reports führen. Schlechte Datenqualität kostet Unternehmen Geld, da die Kosten für die Zeit bis zur Erkennung des Problems und die Zeit bis zur Korrektur und Nachverarbeitung der Reports summiert werden.
Um dies zu vermeiden, ermöglicht die Datenqualitätsplattform, dass Fachbereiche, die ihre Daten am besten kennen, proaktive Regeln erstellen können. Die Ergebnisse des Qualitätsmonitorings werden in messbaren Scores (Prozentsätzen) dargestellt. Dies schafft Transparenz und ermöglicht ein kontinuierliches Monitoring der Datenqualität. Die Plattform ermöglicht es beispielsweise, Fehler wie die Existenz 500-jähriger Bankkunden abzufangen.
Fazit
Die Erfüllung regulatorischer Anforderungen wie DORA, BCBS und MaRisk erfordert eine hohe Datenqualität, vollständige Nachvollziehbarkeit der Datenherkunft und eine skalierbare Datenarchitektur. End-to-End-Datenplattformen wie Pentaho unterstützen Unternehmen dabei, die notwendige Transparenz für Wirtschaftsprüfer, den Fachbereich und für die Entscheidungsfindung zu schaffen.
Da jedes Unternehmen an einer anderen Stelle steht und unterschiedliche Mechanismen bereits implementiert hat, kann die Pentaho Plattform modular oder als Ganzes integriert werden. Dies erlaubt es, gezielt die wichtigsten Stellschrauben anzugehen (sei es Data Lineage, Datenkatalog oder Datenqualität), um die regulatorischen Anforderungen auf Basis einer stabilen IT zu erfüllen.
Die Plattform für ganzheitliches Datenmanagement
Pentaho kombiniert ETL-/ELT-Pipelines, Metadatenverwaltung, Orchestrierung und analytische Funktionen in einer integrierten Plattform. Unternehmen können damit Datenquellen konsolidieren, Datenflüsse standardisieren und Governance-Anforderungen übergreifend sicherstellen.