Optimierung der Datenqualität im Unternehmen - we.CONECT
Optimierung der Datenqualität im Unternehmen - we.CONECT
Optimierung der Datenqualität im Unternehmen - we.CONECT
Erfolgreiche ePaper selbst erstellen
Machen Sie aus Ihren PDF Publikationen ein blätterbares Flipbook mit unserer einzigartigen Google optimierten e-Paper Software.
Datenqualität effektiv nutzen<br />
Qualitätssicherung bei externen Daten<br />
Datenqualität wird meist <strong>im</strong> Hinblick auf Informationen in Backend-Datenbanken und sonstigen<br />
internen Datenquellen diskutiert. Viele Daten kommen jedoch von außen. Sie stammen aus<br />
An<strong>we</strong>ndungen von Lieferanten, Distributoren und an<strong>der</strong>en Partnern, <strong>we</strong>rden von Websites<br />
abgerufen o<strong>der</strong> kommen von Kunden in diversen unstrukturierten Formaten.<br />
Dennoch wird dieser Umstand von <strong>we</strong>nigen Datenqualitätsinitiativen berücksichtigt, was den<br />
Erfolg solcher Initiativen durch große Lücken und risikobehaftete Umgebungen ersch<strong>we</strong>rt. Da<br />
schon ein einzelner Datensatz jede Menge an<strong>der</strong>e Systeme kontaminieren kann, sind solche<br />
externen Quellen ein erhebliches Risiko.<br />
Deshalb ist es so wichtig, bewährte Qualitätsmanagement-Techniken wie Scoringsysteme,<br />
Bereinigung, Abgleich und Zusammenführung für alle Datenquellen einzusetzen. Die Einführung<br />
einer Datenqualitätspolitik ausschließlich für interne Systeme schützt nur einen Teil <strong>der</strong> kritischen<br />
Daten und schränkt die Effektivität einer solchen Initiative stark ein.<br />
Warum es auf die Qualität bei Echtzeitdaten ankommt<br />
Die Ermittlung und Korrektur fehlerhafter Daten nach dem Eintritt in das System ist wichtig, aber<br />
das Management <strong>der</strong> Datenqualität in Echtzeit bringt erheblich größere Effekte. Der SiriusDesigns-<br />
Report stellt die „1-10-100-Regel“ vor, die den Nutzen proaktiven Handelns bei <strong>der</strong> Datenqualität<br />
veranschaulicht. Diese Regel besagt, dass es einen Dollar kostet, einen Datensatz zu überprüfen,<br />
zehn Dollar, ihn nach <strong>der</strong> Erfassung zu berichtigen und zu deduplizieren und hun<strong>der</strong>t Dollar an<br />
potenziellen Produktivitätsverlusten o<strong>der</strong> Umsätzen, <strong>we</strong>nn gar nichts unternommen wird.5<br />
Nehmen wir noch einmal das Beispiel des Flusses. Es ist <strong>we</strong>niger aufwändig, das verschmutzte<br />
Wasser an <strong>der</strong> Quelle aufzufangen, als ein großes Gewässer nach erfolgter Verschmutzung zu<br />
reinigen.<br />
Gleiches gilt für <strong>Unternehmen</strong>sdaten. Die Bereinigung von Daten, die über mehrere Quellen<br />
verteilt sind, verursacht <strong>we</strong>it mehr Aufwand als das Berichtigen eines fehlerhaften Datensatzes,<br />
bevor dieser in eine Datenbank gelangt.<br />
5 “The Impact of Bad Data on Demand Creation,” Sirius Decisions, 2008.<br />
9<br />
Information Buil<strong>der</strong>s