Fachartikel

Schlüsselposition Stammdatenmanagement

Mit der Digitalisierung werden Geschäftsmodelle im Hinblick auf Innovationen neu ausgerichtet. Verlässliche Stammdaten bilden dabei die Grundlage.

Datengetriebene Unternehmen stehen heute mehr und mehr vor der Aufgabe, den Produktionsfaktor „Daten“ aktiv zu pflegen und weiterzuentwickeln; vor allem brauchen sie verlässliche Stammdaten. Diese sind eine wichtige übergreifende Komponente, die in operativen Prozessen und Unternehmensentscheidungen ebenso beteiligt ist wie bei Datenauswertungen und -analysen oder Produkten und Dienstleistungen. Ein institutionalisiertes Stammdaten- und Datenqualitätsmanagement sind daher wesentliche Voraussetzungen für ein effizientes Datenmanagement und eine wertorientierte Nutzung von Daten.

Erfolgsfaktor Organisation

In organisatorischer Hinsicht geht es um eine Aufbauorganisation, die die Nutzung von Daten als Wertschöpfungsfaktor unterstützt. Wesentliche Aufgabe dabei ist die Festlegung von Rollen, also die Definition und Zuordnung von Aufgaben und Kompetenzen zu Personen. Typische Rollen für das Datenqualitäts- und Stammdatenmanagement sind Data Owner („Daten-Eigner“, im Fachbereich), Data Steward („fachlicher Datenverwalter“, meist im Fachbereich), Data Manager („technischer Datenverwalter“, meist in der IT) und Data User („Anwender“, im Fachbereich und in der IT). Um ihre Aufgaben wirkungsvoll erledigen zu können, benötigten die jeweiligen Mitarbeiter bestimmte Fähigkeiten. Neben einem grundsätzlichen Verständnis für die Relevanz von Daten für das Unternehmen und die Chancen, die es durch ihre Nutzung hat, sind dies die Fähigkeit zur Verwaltung, Nutzung und Potentialerkennung von Daten sowie die Konzeption, Entwicklung und Durchführung von neuen oder angepassten datengetriebenen Prozessen.

Erfolgsfaktor MDM- und DQ-Prozesse

Gemäß ihrer Rollenbeschreibung sind die beteiligten Mitarbeiter in unterschiedliche Prozesse eingebunden. Zu den Linienaufgaben gehören die fachliche oder technische Betreuung und Unterstützung (z.B. Bestimmung von Datenquellen; Auswahl, Profilierung und Bewertung von Daten), die Umsetzung (z.B. Pflege von Daten und Regeln; Dokumentation neuer Anforderungen), die Entscheidung (z.B. über unternehmens- oder abteilungsweit genutzte Geschäftsbegriffe; Priorisierung von Projekten), der Betrieb der Infrastruktur und der Systeme sowie schließlich das Monitoring (z.B. der Datenqualität). Typische Projektaufgaben sind BI-Projekte (z.B. Ausbildung neuer Data Marts einschließlich Pflege des Business- Glossars), DQ-Projekte (z.B. Bereinigung von Kundendaten; Zusammenfassen von externen Kundendaten mit den eigenen) und Data-Science-Projekte (z.B. Unterstützung von Statistikern bei der Wahl und Interpretation von Daten).

Erfolgsfaktor Technologie

Die Softwaretechnik kann die beteiligten Rollen bei ihren Linien- und Projektaufgaben unterstützen. So ist es beispielsweise möglich, bereits bei der Dateneingabe neu anzulegende Datensätze gegen den bestehenden Adressbestand zu testen. Mangelhafte Datenqualität des bestehenden Datenbestands durch etwa Dubletten und fehlende oder falsche Daten lässt sich durch eine Bereinigung mit Hilfe ausgereifter Softwarelösungen beheben. Für Anforderungen der Fachbereiche in Sachen Big Data Analytics sind Data-Profiling-Funktionen nützlich.

Sie helfen unter anderem dabei, Strukturen und Muster in den vorliegenden Daten zu erkennen. Um Datenqualität systematisch zu verbessern und zu sichern, sollte in die von den jeweiligen Anwenderrollen verwendeten Benutzeroberflächen eine Workflow-Unterstützung für die Definition und Umsetzung entsprechender DQ-Prozesse integriert sein. Da sich der Datenbestand ständig verändert und neue Datenarten hinzukommen, gewährleistet ein Regelmanagement-System die Definition von Datenvalidierungs- und Geschäftsregeln.

Schließlich: Monitoring-Komponenten informieren über aktuelle Geschäftsergebnisse, und Reporting-Module unterstützen die Auswertung und übersichtliche Darstellung von relevanten Kennzahlen und Eigenschaften der Datenlandschaft.

Passende Artikel