Warum und wie treffen wir Entscheidungen oder ändern altgetroffene Entscheidungen?
In der Regel entscheiden wir neu, wenn wir neue Informationen, neues Wissen oder neue Ziele haben, welche unsere Entscheidungen beeinflussen. So schrieb der britische Mathematiker und Fachmann für Wirtschaftspolitik, John Maynard Keynes einmal: „wenn sich die Fakten ändern, ändere ich meine Meinung.“
Diese Informationen erhalten wir (neben den gefühlten Werten und gutem Instinkt) aus Daten.
Dabei kann es sich um Auswertungen für Umsätze, Kosten jeglicher Art, Perfomance-Kennziffern, Prognosen, Strategiewechsel usw. handeln.
Daten und daraus resultierende Auswertungen sind somit elementar wichtig, um Handlungsempfehlungen aufzuzeigen und/oder als Entscheidungsvorlage zu dienen.
Sind Daten aber nicht korrekt, aktuell, vollständig und konsistent, dann können beispielsweise Briefe, Mailings oder Anrufe zur Nicht-Erreichbarkeit, falscher Ansprache, Doppelversand/Anruf führen oder schlimmer noch – den falschen Kunden erreichen.
In der Untersuchung „Adress-Studie 2021“ analysiert Deutsche Post Direkt, die auf Adress- und Datenmanagement spezialisierte Tochtergesellschaft der Deutschen Post, dass 14,7% aller Briefe 2020 nicht zustellbar waren. Auch wenn sich die Datenqualität um 1,7 Prozentpunkte von 2018 zu 2021 verbessert hat, ist immer noch knapp jeder 7. Kundendatensatz in deutschen Unternehmen fehlerhaft.
14,3 Milliarden Briefe wurden laut Statista im Jahr 2020 von der deutschen Post DHL befördert.
Wenn Daten für Analysen nicht verständlich, einheitlich, lesbar und zugänglich sind, werden Rechnungen, Prognosen und Planungen für die Unternehmensziele falsch erstellt.
Neben möglichen Umsatzeinbußen kann auch eine missglückte Kommunikation mit Kunden die Reputation eines Unternehmens schädigen. Schlechte Datenqualität bindet Arbeitsressourcen, schafft Unzufriedenheit bei Mitarbeitern und entwickelt sich oft zu einem hohen Kostenfaktor.
Hohe Datenqualität führt zu höherer Produktivität. Anstatt Daten zu validieren und Fehler zu korrigieren, haben die Mitarbeiter mehr Zeit für ihre eigentlichen Aufgaben.
Ein großer Teil der Arbeitszeit von Datenanalysten und Reportern in Unternehmen wird mit Korrekturen, Nachbessern, Auffüllen und Aufbereiten von Daten benötigt.
Diese Daten-Fehler beruhen meist auf
Daten kosten Geld. Das ist ein Fakt. Daten in einer hohen Qualität zu führen, kostet sogar noch mehr.
Am meisten Geld kostet es aber, Entscheidungen aufgrund falscher oder veralteter Informationen zu treffen und damit finanzielle Risiken einzugehen oder sich Strafgelder wegen Nichteinhaltung der Compliance-Richtlinien einzuhandeln.
Laut Gartner sind das Beträge in Millionenhöhe pro Jahr pro Unternehmen, die verloren gehen.
“Poor data quality destroys business value. Recent Gartner research has found that organizations believe poor data quality to be responsible for an average of $15 million per year in losses.” How To Create A Business Case For Data Quality Improvement (gartner.com)
Projekte und Initiativen mit dem Ziel, die Datenqualität zu verbessern und zu halten, sind komplex, aufwendig und teuer. Dafür wird nicht nur IT benötigt, sondern auch Projektteams, welche sämtliche Anforderungen für die Datenstrategie spezifizieren, zusammenführen, implementieren, testen, überwachen und weiterführen. Ebenso muss die Datenqualität von der Erstellung eines Datensatzes, über seine Kontrolle auf Richtigkeit bis hin zur Aktualisierung, Archivierung oder Löschung korrekt sein.
Das ist kein „Einmalprojekt“, sondern eine stetige und langfristige Fortführung der Unternehmens DNA.
Einfach nichts zu tun, produziert weitaus höhere Kosten und Verluste als die Implementierung eines strukturierten Data Quality Managements.
Laura Hoffmann – Beraterin & HR
junokai