“Money makes the world go round” – so hieß rsp. heißt ein millionenfach zitierter Songtext, eine Bedeutungsikone von früher. Wir von movisco sind der Ansicht, es müsste heißen “Data make the world go round” – was nicht nur ihre Wirkmächtigkeit bestätigt, sondern Daten quasi als Equivalent für Geld beschreibt. Und da geht unser Ansatzt noch weit über den bisherigen “Standard” hinaus: “Data is the new oil” – dieser einprägsame Spruch wird überall so oft und floskelhaft verwendet (siehe auch den movisco Blogbeitrag “Öl im 21. Jahrhundert – unverzichtbar?"), dass wir den eigentlichen Hintergrund vielleicht schon vergessen haben. Eruieren wir doch nochmal, was Daten wirklich so wertvoll macht, und wieso Banken und Unternehmen noch stärker auf diese Assets achten sollten.
Kaum eine Präsentation kommt heute ohne die Verweise auf den Kapitalisierungswert der digitalen Plattformenen und die GAFAM-Ökonomie aus. Google, Amazon, Facebook (das Akronym müsste heute eigentlich GAMAM heißen, mit “Meta” statt “Facebook”), Apple und Microsoft, der umstrittene Big Data Specialist Palantir, Tencent und Rakuten etc. unterstreichen mit ihrer Marktkapitalisierung eindrucksvoll, welchen Wert wir heute Daten zuschreiben. Nicht nur, aber gerade auch diese großen Konzerne haben Daten in den Mittelpunkt ihrer Geschäftsmodelle gestellt und verdienen glänzend an den Informationen, die sie eifrig sammeln und von den Nutzerinnen und Nutzern größtenteils kostenlos geliefert bekommen. In Europa und insbesondere Deutschland wurde der Wert von Daten zu lange unterschätzt – als Folge besitzen nun wenige Unternehmen fast ein Monopol auf den Zugang zu vielen Daten.
Wer viele Daten besitzt und weiß, was er mit ihnen anstellen kann, erarbeitet sich wirtschaftliche Vorteile. Daten sind heute der Treibstoff für Innovationen, hauptsächlich in Kombination mit den Methoden, die umgangssprachlich unter „Künstliche Intelligenz“ zusammengefasst werden. Sie filtern und akkumulieren, korrelieren und bewerten, erstellen Modelle und Prognosen, liefern Einsichten in das Verhalten von Kundinnen und Kunden, werden für Automatisierung und autonome Robotik benötigt. Und oftmals sind sie die Basis für neue Geschäftsmodelle. Beispielsweise aus dem immer wichtiger werdenden Sektor der Klimaforschung. (Tipp: Hierzu vertieft: “Klimakrise – der nächste bedeutende Faktor für Finanzinstitutionen”)
Ein Beispiel – und das soll nicht als Werbung oder Empfehlung (miss)verstanden werden -: Descartes Underwriting ist ein Start-up aus den USA, das Versicherungsschutz gegen die Folgen von klimatischen Veränderungen anbietet. Um die eigenen Risiken abschätzen zu können, nutzt das Unternehmen seine eigenen KI-Rechenmodelle. Hat sich etwa ein landwirtschaftlicher Betrieb gegen die Negativfolgen einer Überschwemmung versichert, steht kein großer Papierkrieg an. Denn die Versicherungen des Unternehmens funktionieren nach dem Prinzip der Parametrik. Wettersensoren weltweit messen den Eintritt von solchen schadensträchtigen Ereignissen zuverlässig. Wird der versicherte Schwellwert überschritten, kann die Versicherungssumme ohne Zeitverzug ausgezahlt werden. Wie hoch die diesbzgl. Prämie war, hat Descartes im Vorfeld mit seiner KI berechnet.
Die Herausforderungen der Datenflut liegen im Wesentlichen in Kapazität. Zeit, Datenhaltung, Datensicherheit und Datenschutz. Auch hier ein Beispiel: Die stetig wachsenden Datenmengen, der sprichwörtliche Datenhunger, stellen Unternehmen vor große Herausforderungen. In einem durchschnittlichen Pkw sind heute rund 100 Sensoren verbaut, die jede Sekunde Daten erheben. Entsprechend hoch ist der Bedarf an Speicherplatz, wenn diese Informationen genutzt werden sollen.
Es geht aber nicht allein um Kapazität. Noch bedeutender ist der Faktor Zeit. Wenn Maschinen Informationen in Echtzeit aus Daten gewinnen, genügt es nicht, die Datenmengen in ein zentrales Rechenzentrum zu übermitteln. Viele Workloads werden, exemplarisch sei das autonome Fahren genannt, am Rande (Edge) des Netzwerks verlagert werden.
Wo viele Daten schnell und teilweise dezentral verarbeitet werden müssen, wirft dies aber auch Herausforderungen zur Sicherheit und zum Datenschutz auf. Alles Fragen, die zu klären sind und technisch gelöst werden müssen.
Im Rahmen einer Due Diligence wird den Datenbeständen eines Unternehmens ganz selbstverständlich ein Wert zugeschrieben. Dimensionen des Wertes von Daten können hier sein: Bestehende Kundenbeziehungen und das Wissen um diese Kunden im Sinne von: Historie, Umsatz(entwicklung), Mitarbeiter(entwicklung), Kunden(entwicklung), Produkte(entwicklungen), Dienstleistungen(entwicklungen), Zahlungsverhalten etc. haben einen praktischen Nutzen – und einen hohen Wert.
Anderes Beispiel: Google hat mit den Aufnahmen seiner Kamerafahrzeuge und aus einer Vielzahl zuammengezogener Quellen ein digitales Abbild unserer Städte geschaffen, die es im Rahmen von google Maps und einer Vielzahl von im Umfeld entwickelten Produkten und Dienstleistungen wie “My Business” und immer mehr integrierten Transport- und Logistikinformationen monetarisiert. Diese Daten haben also einen ganz offensichtlichen Wert. Und bei den neuen Apple-Diensten noch viel mehr.
Bevor Daten eine offensichtlichen und konkreten Wert besitzen, schlummert in ihnen ein potenzieller Wert. Oft braucht es erst eine zündende Idee oder eine Methodik, um den Wert zu heben. Ob Transaktionsdaten auf Konten, Nutzungsdaten von Anwendungen oder Apps oder aus dem Marketing: Nahezu jeder Form von Daten, die in einer Organisation heute anfallen, können potenziell wertvoll sein oder noch werden.
Es gibt aber auch so etwas wie einen langfristigen Wert von Daten, der sich nur schwer beziffern lässt. In konkreten Zahlen lässt sich dieser erst dann ermitteln, wenn die Informationen nachträglich aus anderen Quellen wieder zusammengestellt werden müssen. Im Zusammenhang mit Big Data und Machine Learning erweist sich der langfristige Wert von Daten erst zu einem späteren Zeitpunkt. „Kann das weg?“ – diese Frage beantworten Firmen immer häufiger mit einem Nein und speichern Daten lieber langfristig in einem Data Lake (siehe vertiefend “Projektreferenz: Aufbau eines normierten Datenfeeds” oder Lakehouse. Denn für KI werden immer große (und größer werdende) Mengen historischer oder exemplarischer Daten benötigt.
Daten sind potenziell unendlich wertvoll – wenn sich Unternehmen und Banken auch angemessen darum kümmern. Das Management der Datenqualität (DQM) ist essenziell. Salopp gesprochen: Daten werfen nur dann eine Rendite ab, wenn Maßnahmen ergriffen werden, um ihren Wert zu steigern. Denn der Umgang mit Daten verursacht auch Kosten. Schon 1992 entwickelten George Labovitz und Yu Sang Chang ihre bekannte 1-10-100-Regel:
Die absoluten Beträge (gelten zum einen nur zum Zeitpunkt des Redaktionsschlusses und) spielen hier keine Rolle – es geht um das abstrahierte Modell, das eindrucksvoll unterstreicht, warum es wichtig ist, Zeit, Energie und Aufwand in die Pflege von Daten zu stecken. Falsche oder fehlende Informationen können eben richtig teuer werden, gerade in Umfeldern wie Finanzdienstleister und Banken, in denen Regulatorik (aktueller Lese-Tipp: Blogbeitrag “Integrative Gesamtbanksteuerung: mehr als Regulatorik und Bilanz” eine große Rolle spielt.
Datenpflege und Qualitätsmanagement lohnen sich auch, um das Potenzial und damit den Wert von Daten zu heben. Genügend Gründe, um sich damit zu beschäftigen.
Wenn Sie vertieft weiterlesen möchten: Whitepapers, Blogbeiträge und Case Studies zum Thema Datenqualität und DQM finden Sie auf der movisco-Website. Hier ein kurzer Auszug:
Wir freuen uns über Ihre direkte Kontaktaufnahme!