Ihr Standort: movisco // Blog »
kontakt mail icon
kontakt phone icon

“Houston, wir haben ein Problem” - Datenqualität ist entscheidender Erfolgsfaktor

Kleine Ursache, große Wirkung. Mit dem Mars Climate Orbiter (MCO) wollte die NASA die Atmosphäre des Mars über einen längeren Zeitraum beobachten. Doch leider scheiterte die Mission kläglich. Bei ihrem Anflug 1999 kam die Sonde dem Planeten zu nahe und verglühte. Wie die Analyse zeigte, trugen simple Einheitenfehler die Schuld für das Versagen. Hätten die Entwicklungsteams sich intensiver mit dem Aspekt der Datenqualität beschäftigt, wäre die Komplikation wahrscheinlich bereits frühzeitig entdeckt worden. (Tipp: Auch agiles Testing, wie wir es im Blogbeitrag exemplarisch für Banken beschreiben, wäre sicher hilfreich gewesen, weil fehlerhafte Daten schneller, also bereits im Entwicklungsprozess, auffallen: Auswirkungen agiler Anwendungsentwicklung auf die Testpraktiken in Banken)

Auch KI, Bots, RPA benötigen Daten von hoher Qualität

Weniger spektakulär ist dagegen aus Sicht von Nutzerinnen und Nutzern die Darstellung von falschen Abbildungen bei der Bildersuche von Suchmaschinen wie Google. Bild- und Mustererkennung als klassische Beispiele für KI-Methoden basieren auf maschinellem Lernen. Bevor die KI selbstständig Objekte erkennen kann, muss sie trainiert werden. Und hier kommt es auf hohe Datenqualität an. Alle Fotos von Bananen, Bonobos oder Bonbons (hier kann es schon durch ähnliche Schreibweisen bei niederqualitativer Datenerfassung zu Fehlern kommen), die dem Algorithmus übergeben werden, müssen auch sauber zugeordnet das entsprechende Motiv zeigen, sonst läuft die Erkennung später in die falsche Richtung.

Mehr als nur evident: warum Datenqualität so wichtig ist

Doch während bei einer Trivialsuche eine schlechte Datenqualität “nur” zu mehr oder weniger skurrilen Ergebnissen führt, können die fehlerhafte Daten in Geschäftsprozessen gravierende Auswirkungen zeitigen. In immer mehr Organisationen sollen auf KI basierende Analysen neue Erkenntnisse, Prognosen ermöglichen, beispielsweise bei der Marktbearbeitung oder der Entwicklung neuer Produkte. KI-Systeme sind aber stets nur so gut, wie das Ausgangsmaterial für die Analysen. Salopp formuliert stehen die Analyseprogramme vor dem gleichen Problem wie jede Bildbearbeitung: Ein schlechtes Foto wird nicht zum Meisterwerk, selbst wenn die ausgefeilteste Technologie zur Bearbeitung verwendet wird.

Stimmen die Ausgangsdaten nicht, hat dies natürlich konsequente Auswirkungen auf alle Bereiche, in denen diese verwendet werden. Im gleichen Maße, in dem für die Unternehmens- und Bankensteuerung auf KI-Systeme und automatisierte Datenaggregation zurückgegriffen wird, werden die Prozesse abhängiger von einer überzeugenden Datenqualität. Sie bildet damit eine Grundlage für Digitalisierungsprozesse und Entwicklungen wie Industrie 4.0 oder auch “Banking 4.0”. In allen diesen Bereichen wird verstärkt auf Automatisierung gesetzt, d. h. Menschen haben weniger direkten, kontrollierenden Kontakt mit den Datenströmen – sie kommen quasi nur noch an den Interfaces mit den Ergebnissen der stattgefunden habenden Datenmodellierung in Verbindung. Damit werden die Gelegenheiten seltener, zu denen es Mitarbeitenden auffallen könnte, dass etwas an der Datenbasis nicht stimmt.

Schließlich spricht auch die Compliance für die Einhaltung einer hohen Datenqualität. Banken und Kreditinstitute sind dazu verpflichtet, im Rahmen des Risikomanagements und Reportings ihre aktuelle Situation einzuschätzen und im Berichtswesen zu berücksichtigen. Mangelnde Datenqualität kann dort ebenfalls große Auswirkungen haben.

Wie (leicht) es zu schlechter Datenqualität kommt

Die Qualität vorhandener Daten kann anhand verschiedener Kriterien beurteilt werden. Dazu gehören u. a. die Vollständigkeit, Korrektheit, Aktualität, Eindeutigkeit und Konsistenz. Diese Kriterien können von zahlreichen Faktoren negativ beeinflusst werden. Dazu ein paar Beispiele:

  • An erster Stelle stehen menschliche Fehler bei der Erfassung oder Weiterverarbeitung von Informationen, etwa Tippfehler, Zahlendreher, Dubletten oder unvollständige Eingaben. So wird aus Frau Meyer fälschlicherweise Frau Meier oder eine Immobilie erhält eine Grundbuchnummer, die gar nicht existiert oder auf ein anderes Objekt verweist.
  • Negativ auf die Datenqualität wirken sich auch Daten-Silos aus, zumal wenn Informationen redundant vorgehalten werden. Hier besteht die Gefahr, dass sich die Daten, die eigentlich das gleiche Objekt beschreiben sollen, unterscheiden. Zudem ergeben sich Fehlerquellen bei der Übertragung von Daten zwischen den Silos, etwa durch fehlerhafte Importfilter.
  • Um menschliche Fehler auszuschließen, ist eine Dokumentation nötig, die beschreibt, welche Daten in welcher Form erhoben, eingegeben oder verarbeitet werden. Die Erfahrung zeigt jedoch: Häufig sind solche Dokumentationen indes unvollständig oder unzureichend formuliert - oder sie liegt schlicht nicht vor.
  • Einen großen Einfluss auf die Datenqualität hat auch das Fehlen einer Data Governance, also eines Richtlinienpaketes, das beschreibt, wer innerhalb einer Organisation die Autorität und Kontrolle über Datenbestände hat und wie diese Daten verwendet werden dürfen.

… und wie es leicht besser geht

Im Umkehrschluss der obigen Aufzählung liegen bereits viele Möglichkeiten der Qualitätssicherung angelegt, bessere, sauberere und höherqualitative Datensätze zu erzeugen:

  1. Mehraugenprinzip bei der Datensammlung und -eingabe. Menschliche Fehler machen den größten Anteil an “Datenschrott” aus (wie es auch beim oben genannten Sondenabsturz der Fall war); hiergegen hilft ein mehrstufiges (humanes) Kontrollsystem mit wiederholten Plausibilitätsabfragen. Wohlgemerkt: Kontrolliert werden die erhobenen Daten, nicht die Menschen. Weitergehend führt die Einführung von Agile Testing-Verfahren zu früherem Erkennen von fehlerhaften Daten, da sie unplausible Ergebnisse  oder schlicht nicht funktionierende Prozesse erzeugen und in frühen Entwicklungsstadien erkannt werden können.
  2. Redundante Daten in Datensilos mögen zweifellos sinnvoll und nützlich und der Regulatorik entsprechend sein, dienen sie doch auch der Absicherung. Doch ist “Datenwucherung” Einhalt zu gebieten. Zum Beispiel erhöht die in vielen Banken angelegte “Multiple Feed”-Struktur mit je eigenen Datenstrecken zu den jeweiligen Daten-Konsumenten nicht nur die Anzahl der Datenspeicherungen. Sondern erschwert – schon durch das unterschiedliche Verständnis der Definition einzelner Datenfelder – eine effiziente Datenhaltung. Umgekehrt verringert ein einheitliches, optimiertes Datenmodell, das Daten aus Operativsysemen in ein Data Lake ablegt, die Anzahl der Datenstrecken und damit auch die Zahl vermeidbarer Fehler.

          Tipp: Auf diese Aspekte geht unser Blogbeitrag Rettet mein Frühjahrsputz den Regenwald? umfassend ein.

  1. Data Governance: Eigentlich ist Data Governance selbstverständlich, aber fällt manchmal dem Faktor “Human Fatal Flaw” zum Opfer: Als wichtig erkannt, aber wird nicht oder unzureichend entwickelt, gepflegt, umgesetzt, controlled. Dabei gehört das in die gleiche Kategorie wie Erstelung und Nachhalten der Dokumentation: einfach Pflicht.

“BaFin, wir haben ein Problem” - die Folgen von geringer Datenqualität

Eine unzureichende Datenqualität hat unmittelbare Konsequenzen auf Banken und Unternehmen. Fehlerhafte oder unvollständige Daten führen zu höheren und unnötigen Kosten, u. a. durch die Notwendigkeit, fehlende Informationen zu beschaffen oder durch höhere Aufwände bei der Suche und Zusammenstellung von Informationen.

Bei der Weiterverarbeitung von Daten mit schlechter Qualität kommt zur Verlangsamung von Prozessen, weil Fehler korrigiert werden müssen, Informationen fehlen und somit erst beschafft werden müssen. Die Effizienz der internen Prozesse nimmt also ab.

Überall dort, wo die fehlerhaften Daten für die Analyse von Geschäftszahlen und Risiken genutzt werden, besteht die Gefahr, dass die schlechte Datenqualität zur Ableitung falscher Entscheidungen und Einschätzungen führt. Daraus können sich dann naturgemäß Wettbewerbsnachteile ergeben. Und es besteht sogar die Gefahr, dass regulatorische Vorschriften nicht korrekt eingehalten werden (Risikomanagement!).

Aus Sicht einer Bank wäre das dann schon mit dem Verglühen einer Marssonde vergleichbar. Es gibt also viele Gründe, sich aktiv mit der Datenqualität zu beschäftigen, diese zu messen und Maßnahmen zur Verbesserung zu ergreifen. Bei allen diesen Problemstellungen kann die movisco AG Sie unterstützen.

Tipp

Konkrete Case Studys und hilfreiche Papers zum Thema Datenqualität und Qualitätssicherung finden Sie zum kostenlosen Download auf der movisco-Website, z. B. hier:

  • Case Study: In Übereinstimmung mit den BCBS239 Vorgaben hat die movisco AG Datenqualitätsinstrumente entwickelt und implementiert. Die neuen Datenqualitätsinstrumente ermöglichen eine automatisierte Messung und Steuerung der Datenqualität. Die Ergebnisse werden in aussagekräftigen und übersichtlichen Reports den Abnehmern der Daten zur Verfügung gestellt. Hier lesen Sie die spannende Case Study dazu: Implementierung von Datenqualitätsinstrumenten zur Operationsalisierung der Datenqualitätsdimensionen
  • Case Study: Mit SAP BW und der von movisco konzipierten DQ-BW Lösung wurde die Datenqualität (DQ) eines Finanzinstituts erheblich transparenter. Die DQ-BW Lösung erzeugt kontinuierlich und zeitnah neue Erkenntnisse über die Datenqualität der operativen Systeme. Über einen DQ-Managementkreislauf werden die Findings adressiert und in der jeweiligen Datenquelle verbessert oder korrigiert. Es entsteht ein permanenter DQ-Reifungsprozess über den gesamten Datenhaushalt. Die von movisco realisierte DQ-BW Lösung ist modular aufgebaut und lässt sich jederzeit flexibel erweitern oder modifizieren. Mehr hier: Aufbau des Datenhaushalts für die Datenqualitätsanalyse eines Kreditinstituts
  • Das Vier-Phasen-Modell des movisco Datenqualitätsmanagement-Kreislaufs lernen Sie hier kennen: https://www.movisco.de/consulting/business-consulting/datenqualitaetsmanagement

Kommentare

Schreiben Sie den ersten Kommentar!

Kommentar schreiben

* Diese Felder sind erforderlich

Mit der Abgabe eines Kommentars stimme ich der Nutzung meiner Daten zur Kontaktaufnahme zu!

Nach oben

Ihre Ansprechpartnerin

Susanne Jung

info@movisco.com
elektronische Visitenkarte

Fon +49 40 767 53 777

Schnellkontakt-Formular

Schnellkontakt-Formular
zweite Formularseite
dritte Formularseite

Die abgesendeten Daten werden nur zum Zweck der Bearbeitung Ihres Anliegens verarbeitet. Weitere Informationen finden Sie in unserer Datenschutzerklärung.

Sie haben Fragen?

Wir freuen uns über Ihre direkte Kontaktaufnahme!

  • Telefon: +49 40 767 53 777
  • E-Mail