Kleine Ursache, große Wirkung. Mit dem Mars Climate Orbiter (MCO) wollte die NASA die Atmosphäre des Mars über einen längeren Zeitraum beobachten. Doch leider scheiterte die Mission kläglich. Bei ihrem Anflug 1999 kam die Sonde dem Planeten zu nahe und verglühte. Wie die Analyse zeigte, trugen simple Einheitenfehler die Schuld für das Versagen. Hätten die Entwicklungsteams sich intensiver mit dem Aspekt der Datenqualität beschäftigt, wäre die Komplikation wahrscheinlich bereits frühzeitig entdeckt worden. (Tipp: Auch agiles Testing, wie wir es im Blogbeitrag exemplarisch für Banken beschreiben, wäre sicher hilfreich gewesen, weil fehlerhafte Daten schneller, also bereits im Entwicklungsprozess, auffallen: Auswirkungen agiler Anwendungsentwicklung auf die Testpraktiken in Banken)
Weniger spektakulär ist dagegen aus Sicht von Nutzerinnen und Nutzern die Darstellung von falschen Abbildungen bei der Bildersuche von Suchmaschinen wie Google. Bild- und Mustererkennung als klassische Beispiele für KI-Methoden basieren auf maschinellem Lernen. Bevor die KI selbstständig Objekte erkennen kann, muss sie trainiert werden. Und hier kommt es auf hohe Datenqualität an. Alle Fotos von Bananen, Bonobos oder Bonbons (hier kann es schon durch ähnliche Schreibweisen bei niederqualitativer Datenerfassung zu Fehlern kommen), die dem Algorithmus übergeben werden, müssen auch sauber zugeordnet das entsprechende Motiv zeigen, sonst läuft die Erkennung später in die falsche Richtung.
Doch während bei einer Trivialsuche eine schlechte Datenqualität “nur” zu mehr oder weniger skurrilen Ergebnissen führt, können die fehlerhafte Daten in Geschäftsprozessen gravierende Auswirkungen zeitigen. In immer mehr Organisationen sollen auf KI basierende Analysen neue Erkenntnisse, Prognosen ermöglichen, beispielsweise bei der Marktbearbeitung oder der Entwicklung neuer Produkte. KI-Systeme sind aber stets nur so gut, wie das Ausgangsmaterial für die Analysen. Salopp formuliert stehen die Analyseprogramme vor dem gleichen Problem wie jede Bildbearbeitung: Ein schlechtes Foto wird nicht zum Meisterwerk, selbst wenn die ausgefeilteste Technologie zur Bearbeitung verwendet wird.
Stimmen die Ausgangsdaten nicht, hat dies natürlich konsequente Auswirkungen auf alle Bereiche, in denen diese verwendet werden. Im gleichen Maße, in dem für die Unternehmens- und Bankensteuerung auf KI-Systeme und automatisierte Datenaggregation zurückgegriffen wird, werden die Prozesse abhängiger von einer überzeugenden Datenqualität. Sie bildet damit eine Grundlage für Digitalisierungsprozesse und Entwicklungen wie Industrie 4.0 oder auch “Banking 4.0”. In allen diesen Bereichen wird verstärkt auf Automatisierung gesetzt, d. h. Menschen haben weniger direkten, kontrollierenden Kontakt mit den Datenströmen – sie kommen quasi nur noch an den Interfaces mit den Ergebnissen der stattgefunden habenden Datenmodellierung in Verbindung. Damit werden die Gelegenheiten seltener, zu denen es Mitarbeitenden auffallen könnte, dass etwas an der Datenbasis nicht stimmt.
Schließlich spricht auch die Compliance für die Einhaltung einer hohen Datenqualität. Banken und Kreditinstitute sind dazu verpflichtet, im Rahmen des Risikomanagements und Reportings ihre aktuelle Situation einzuschätzen und im Berichtswesen zu berücksichtigen. Mangelnde Datenqualität kann dort ebenfalls große Auswirkungen haben.
Die Qualität vorhandener Daten kann anhand verschiedener Kriterien beurteilt werden. Dazu gehören u. a. die Vollständigkeit, Korrektheit, Aktualität, Eindeutigkeit und Konsistenz. Diese Kriterien können von zahlreichen Faktoren negativ beeinflusst werden. Dazu ein paar Beispiele:
Im Umkehrschluss der obigen Aufzählung liegen bereits viele Möglichkeiten der Qualitätssicherung angelegt, bessere, sauberere und höherqualitative Datensätze zu erzeugen:
Tipp: Auf diese Aspekte geht unser Blogbeitrag Rettet mein Frühjahrsputz den Regenwald? umfassend ein.
Eine unzureichende Datenqualität hat unmittelbare Konsequenzen auf Banken und Unternehmen. Fehlerhafte oder unvollständige Daten führen zu höheren und unnötigen Kosten, u. a. durch die Notwendigkeit, fehlende Informationen zu beschaffen oder durch höhere Aufwände bei der Suche und Zusammenstellung von Informationen.
Bei der Weiterverarbeitung von Daten mit schlechter Qualität kommt zur Verlangsamung von Prozessen, weil Fehler korrigiert werden müssen, Informationen fehlen und somit erst beschafft werden müssen. Die Effizienz der internen Prozesse nimmt also ab.
Überall dort, wo die fehlerhaften Daten für die Analyse von Geschäftszahlen und Risiken genutzt werden, besteht die Gefahr, dass die schlechte Datenqualität zur Ableitung falscher Entscheidungen und Einschätzungen führt. Daraus können sich dann naturgemäß Wettbewerbsnachteile ergeben. Und es besteht sogar die Gefahr, dass regulatorische Vorschriften nicht korrekt eingehalten werden (Risikomanagement!).
Aus Sicht einer Bank wäre das dann schon mit dem Verglühen einer Marssonde vergleichbar. Es gibt also viele Gründe, sich aktiv mit der Datenqualität zu beschäftigen, diese zu messen und Maßnahmen zur Verbesserung zu ergreifen. Bei allen diesen Problemstellungen kann die movisco AG Sie unterstützen.
Konkrete Case Studys und hilfreiche Papers zum Thema Datenqualität und Qualitätssicherung finden Sie zum kostenlosen Download auf der movisco-Website, z. B. hier:
Wir freuen uns über Ihre direkte Kontaktaufnahme!