Bosch, Makita und Festool sind drei renommierte Werkzeughersteller, die vor allem für die hochwertige Verarbeitung ihrer Produkte bekannt sind. Dabei stehen Qualität und Zuverlässigkeit im Fokus: Alle drei Marken sind für ihre langlebigen, zuverlässigen und leistungsstarken Erzeugnisse bekannt. Handwerker und Profis vertrauen auf sie, da die Werkzeuge hohen Anforderungen standhalten. Insgesamt sind Werkzeuge unverzichtbare Hilfsmittel in vielen Bereichen des Lebens, von komplexen industriellen und handwerklichen Tätigkeiten bis hin zum Einfamilienhausbau. Eine ähnliche Rolle kommt der ganzheitlichen Data Governance in Bezug auf Datenqualität zu. In diesem Artikel erfahren Sie, warum ein sauberer Datenhaushalt essenziell für die strategische Planung einer Bank ist.
Mit dem Begriff "Qualität" verbinden wir landläufig die Güte eines Produktes – es ist ein Ausdruck, der den Grad beschreibt, in dem ein Produkt eine definierte Anforderung, Erwartung und Norm erfüllt. Je nach Kontext kann Qualität unterschiedliche Dimensionen umfassen, bei Daten existieren konkrete regulatorische Normen wie die Grundsätze für die effektive Aggregation von Risikodaten und die Berichterstattung (BCBS 239), auf die wir auch im Blogbeitrag Alarmstufe Rot näher eingehen.
Data Governance bedeutet, interne Normen und Vorgaben für die Sammlung, Speicherung, Bearbeitung und Vernichtung von Daten zu etablieren. Sie bestimmt, wer auf welche Daten zugreifen darf und welche Datentypen diesen Governance-Regeln unterliegen. Bei movisco verstehen wir Data Governance als gesamtheitlichen Prozess, der die im Schaubild dargestellten Komponenten, u.a. Datenhaushalt, Metadaten, Datenkultur und auch Datenqualität umfasst. Über diesen vollständigen Ansatz möchten wir in einem künftigen Blogbeitrag näher eingehen; hier widmen wir uns zunächst wieder der Datenqualität.
Das Handling und die Auswertung von hochrelevanten Daten, u.a. die Risiko-, Finance-, und Treasury-Daten der Bank, teilweise aggregiert aus verschiedenen Frontendsystemen und Datensträngen, ist nicht nur mitunter eine regulatorische Vorgabe, sondern auch unternehmerische Notwendigkeit, um angemessene Liquiditäts- und Kapitalplanung und -controlling vornehmen zu können. Um dies sicherzustellen, muss neben der Möglichkeit der Datenauswertung garantiert werden, dass die Daten gewisse Qualitätsfaktoren erfüllen (Genauigkeit und Zuverlässigkeit, Risikominderung, Datenvalidierung, Datenbereinigung, Datenherkunft, Aktualität), die sich aus einer Kombination an Regulatorik (BCBS 239) und internen Anforderung ergibt.
Diese Dimensionen können durch verschiedene Werkzeuge und Techniken gemessen werden, zum Beispiel durch Datenqualitätssoftware und manuelle Überprüfungen. Ein systematischer Ansatz zur Messung und Verbesserung der Datenqualität kann helfen, die Verlässlichkeit und Nützlichkeit der Daten in einem Unternehmen zu gewährleisten. Zentrale Aspekte umfassen unter anderem:
Banken müssen klare Prozesse mit diesen Tätigkeiten etablieren, die im Falle von Unregelmäßigkeiten eingreifen können. Bei der Identifikation von Datenqualitätsproblemen müssen geeignete Eskalationskanäle zur Verfügung stehen, um bei Bedarf gegensteuern zu können.
Datenqualität ist eine kritische Komponente von Data Governance. Data Governance als ganzheitlicher Prozess im Handling von Daten ist angewiesen auf eine hohe Datenqualität, um zielführende Maßnahmen für die angrenzenden Komponenten einleiten zu können. Datenqualität muss systematisch gemessen, überwacht und verbessert werden, um den Wert und die Zuverlässigkeit der Daten innerhalb eines Unternehmens zu gewährleisten.
Der Data Governance Prozess, wie er im Schaubild dargestellt ist, ist darauf ausgelegt, der Organisation Daten mit einem möglichst hohen Qualitätsgrad zur Verfügung zu stellen.
Während Datenorganisation die strukturierte Anordnung, Verwaltung und Pflege von Daten umfasst, um deren effiziente Nutzung, Zugänglichkeit, Konsistenz und Sicherheit innerhalb eines Unternehmens zu gewährleisten, ist Datenmodellierung der Prozess der Erstellung eines visuellen oder konzeptionellen Abbilds der Struktur, Beziehungen und Regeln von Daten, um deren Organisation und Nutzung innerhalb eines Informationssystems zu erleichtern. Metadatenmodelle sind notwendig, um einen Gesamtüberblick über den Weg den Daten durch die Systemlandschaft des Unternehmens durchlaufen. Alle Komponenten tragen insgesamt zu einem qualitativ hochwertigen Datenbestand bei.
Datenqualitätsmanagement kann nicht effektiv in einem Vakuum betrachtet werden. Der Data Governance-Prozess als übergreifender Rahmen ist nicht nur Werkzeug, sondern auch Fundament für eine hohe Datenqualität. DQ-Maßnahmen sind einerseits abhängig vom aktuellen Reifegrad der jeweiligen Data Governance Umsetzung in einer Organisation, anderseits begünstigt eine hohe Datenqualität wiederum die Etablierung und Entwicklung der anderen Komponenten. Die Überwachung und kontinuierliche Verbesserung der Data Governance sind entscheidend, um den sich ändernden Anforderungen des Unternehmens und der Regulatorik gerecht zu werden und erfordern Mechanismen zur Richtlinienkontrolle und Messung der Effektivität. Trotz der Komplexität und der Notwendigkeit für Planung, Kommunikation, Technologie und Schulungen kann eine Bank durch effektive Data Governance Vorteile wie verbesserte Datenqualität, erhöhte Sicherheit und optimierte Entscheidungsfindung erzielen.
Vor dem Hintergrund der regulatorischen Herausforderungen und der ständig wachsenden Datenmenge, einem regelrechten Daten-Tsunami, sieht der Bankensektor sich in Sachen Data Governance vor enormen Herausforderungen. Altsysteme, isolierte Datenquellen und die Menge an komplexen Informationen können zu Unstimmigkeiten führen. Die Bewältigung dieser Herausforderungen erfordert einen ganzheitlichen und strategischen Ansatz, der Technologie, Prozessoptimierung und Data Governance kombiniert. Hierbei steht Ihnen movisco mit Erfahrung aus Referenzprojekten als starker Partner zur Seite.
Wir freuen uns über Ihre direkte Kontaktaufnahme!