Performante, effiziente Prozesse erfordern eine hohe Qualität von Stammdaten. Das ist nicht neu, hat sich aber durch die Digitale Transformation noch potenziert.
Um die hohe Datenqualität zu erreichen und zu erhalten, muss die Verantwortung für diese klar definiert werden. Wir sprechen von Data Governance.
Im Umfeld von Produktdaten ist Data Governance vielschichtig. Unterschiedliche Aufgaben müssen bereichsübergreifend übernommen werden. Dafür müssen grundlegende Strukturen geschaffen werden, um die permanenten Veränderungen durch externe und interne Einflüsse abzubilden.
Was muss für eine optimale Data Governance berücksichtigt werden? Dieser Frage nähert man sich am besten über die möglichen Herausforderungen.
Die Antwort darauf ist Data Quality Management. Der Fokus liegt bei DQM darauf, Datenstandards festzulegen. Dies erfolgt meist über eine Produktklassifikation.
Dem Datenstandard folgend, werden Datenpflegeprozess Quality Gates eingerichtet. Damit ist die Datenqualität jederzeit transparent. Weiterhin wird verhindert, dass unzureichende Daten in der Folge die Geschäftsprozesse blockieren.
Datenqualität muss überwacht werden. Bei der hohen Relevanz der Datenqualität für das Gesamtunternehmen sollte die Datenqualität von Experten verantwortet werden. Solche Rollen sind Data Governor oder Data Stewards. Sie haben die Aufgabe, Datenstandards zu entwickeln, Datenanalysen durchzuführen und ein regelmäßiges Reporting aufzubauen.
Laufend müssen neue Empfänger der Daten bedient werden. Ist die Datenqualität hoch, werden sich viele Abnehmer finden, die ein großes Interesse an den Produktdaten haben. Hieraus ergeben sich laufend ergänzende Anforderungen an Datenaustausch und Datenstruktur. Es ist ein proaktives Anforderungsmanagement zu etablieren, wofür Rollen geschaffen und besetzt werden müssen.
Daten Qualitäts Management, Data Governance und Anforderungsmanagement bedeuten, dass das Projekt nicht mit dem GoLive des PIM-System oder MDM-System abgeschlossen ist, sondern dauerhaft agil weiter entwickelt werden muss.
Datenflüsse müssen beherrschbar sein. Gerade in großen Organisationen mit einer umfangreichen Bebauung kommt es zu unterschiedlichen Onboarding Prozessen und einer weiten Verteilung von Produktdaten. Daraus resultiert eine gewisse Komplexität durch Datenredundanzen. Diese Komplexität wird zum Risiko, wenn bei Veränderungen wesentliche Abhängigkeiten in den Datenflüssen übersehen werden. Ein Daten-Architekt kann für die gesamtheitliche und integrierte Betrachtung die Verantwortung übernehmen.
Klare Systemzuordnungen sorgen für Effizienz. In einer umfangreichen IT-Bebauung können sich Funktionsbereiche einzelner Applikationen überlappen. Dies gilt vor allem beim Einsatz von Standardsoftware. Begreifen Sie dies als Chance für eine optimale Individualisierung! Stellen Sie aber sicher, dass die Datenhoheit geklärt ist und alle beteiligten Applikationen nahtlos integriert sind. Ein Enterprise Architekt übernimmt diese Rolle.