"Garbage in, Garbage out"
Sehr viele Prozesse in Unternehmen basieren auf der Verarbeitung von Daten. Die Ergebnisse stehen in direkter Abhängigkeit von der Datengüte. Aktuelle Studien ergeben jedoch, dass die häufig problematisch ist. So ermittelte der Report "Data Integrity Trends and Insights" von 2023, dass 70 Prozent aller Unternehmen, die der Verlässlichkeit ihrer Daten nicht trauen, das größte Fragezeichen hinter die Qualität setzen.
Diese Unzuverlässigkeit ist alarmierend. Fehlerhafte, unvollständige und nicht verfügbare Daten reduzieren Betriebseffizienz und Wirtschaftlichkeit, können Probleme im Hinblick auf die Einhaltung gesetzlicher Vorschriften bereiten und verringern die Qualität des Kundenerlebnisses. Hochwertige Datenqualität ist zudem eine wichtige Bedingung für die digitale Transformation von Unternehmen: Business-Intelligence-Systeme für datengestützte Entscheidungen sowie Machine-Learning-Algorithmen und weitere KI-Technologien benötigen sauber strukturierte Daten. Auch für KI gilt die saloppe, dennoch nicht weniger wahre Einsicht: "Garbage in, Garbage out."
In einem Satz: Datenqualität ist die wichtigste Voraussetzung für die Integrität von Daten, das heißt für ihre Zuverlässigkeit.
Zum Thema
Was ist gute Datenqualität und wie gelingt ihre Analyse?
Doch wodurch zeichnen sich hochwertige Daten überhaupt aus? Die fünf wichtigsten Merkmale sind:
Genauigkeit: Daten müssen frei von Fehlern und präzise sein, sodass sie die Realität korrekt widerspiegeln. Fehlerhafte Daten wie Tippfehler oder falsche Werte können zu schlechten Analysen und Entscheidungen führen. Genauigkeit lässt sich durch regelmäßige Überprüfungen und Korrekturen sicherstellen.
Vollständigkeit: Alle notwendigen Informationen müssen vorliegen. Fehlende Daten können Analysen und Entscheidungen stark verzerren. Eine unvollständige Kundenkartei führt beispielsweise dazu, dass wichtige Mitteilungen nicht zugestellt und Kunden verärgert werden. Vollständigkeit wird etwa erreicht, indem das Ausfüllen aller erforderlichen Datenfelder sichergestellt wird.
Konsistenz: Daten müssen über verschiedene Systeme und Zeiträume hinweg übereinstimmen. Konsistente Daten sind frei von Widersprüchen und harmonisieren mit anderen Datenquellen. Beispielsweise sollten Kundendaten in verschiedenen Abteilungen eines Unternehmens identisch sein. Konsistenz wird durch standardisierte Dateneingabe und regelmäßige Abgleiche der Datenbestände erreicht.
Aktualität: Daten müssen aktuell sein und zeitnah zur Verfügung stehen. Veraltete Daten können zu falschen Schlussfolgerungen führen. Ein Beispiel hierfür sind Marktdaten, die regelmäßig aktualisiert werden müssen, um präzise Prognosen zu ermöglichen. Aktualität wird durch automatisierte Updates und regelmäßige Überprüfungen gewährleistet.
Relevanz: Daten müssen für den jeweiligen Zweck oder die Fragestellung geeignet und bedeutsam sein. Irrelevante Daten erschweren die Analyse und können die Entscheidungsfindung verwirren. Relevanz wird erreicht, indem nur die Daten gesammelt und verwendet werden, die zur Erfüllung der jeweiligen Aufgabe notwendig sind.
Ein Softwareunternehmen, das seine Mission im Namen trägt
Garant für die Einhaltung der genannten Kriterien ist Precisely. Das IT-Haus ist der weltweit führende Spezialist für hohe Datenqualität und Datenintegrität. Mit Niederlassungen auf vier Kontinenten, darunter einer deutschen Zentrale in München, beraten und betreuen die Experten mehr als 12.000 Kunden in über 100 Ländern. Dabei steht ihnen ein durchgängiges Lösungsportfolio aus Systemen für Datenintegration, Datenqualität, Data-Governance, Location-Intelligence und Datenanreicherung zur Verfügung. Ziel von Precisely ist es, Kunden durch Genauigkeit, Konsistenz und Relevanz von Daten bessere Entscheidungen und damit Geschäftserfolge zu ermöglichen.
Speziell für die Sicherstellung einer hohen Datenqualität entwickelte die Firma die modular aufgebaute, interoperable "Precisely Data Integrity Suite". Sie leistet die Analyse von Daten und sorgt für deren Vollständigkeit, Konsistenz, Genauigkeit, Aktualität und Relevanz. Resultat ist eine maximale Zuverlässigkeit aller Information während unterschiedlichster Aufgaben, sei es die Kostensenkung, Risikominderung, Einhaltung von Compliance-Vorgaben, Erweiterung des Kundenstamms, Erhöhung der Kundenzufriedenheit oder Stärkung der Kundenbindung.
Dank der Precisely Data Integrity Suite können alle in Unternehmen etablierten Daten-Prozesse und sogar die grundlegende Datenlogik überprüft werden. Probleme, die in der Vergangenheit auftraten, werden abgestellt. Probleme, die zukünftig entstehen könnten, gar nicht erst zugelassen. Die Suite sorgt für konstante Validierung und Bereinigung von Daten – und das automatisiert. Nutzer erzielen erhebliche Zeiteinsparungen und senken die Fehlerquote, da manuelle Eingaben minimiert sind.
In der Data Integrity Suite integriert ist zudem ein Modul zur Data Governance. Es sorgt abteilungsübergreifend für ein besseres Verständnis der Bedeutung, Herkunft und Auswirkungen von Daten. Im Rahmen von Data Governance werden Datenrichtlinien und -prozesse verwaltet und kommuniziert, verifiziert und ausgewertet, um betriebliche Abläufe zu optimieren und gesetzlichen Bestimmungen nachzukommen.
Maximiliansplatz 22
80333 München
Geschäftsführer: Joseph Rogers
E-mail: info@precisely.com