Parameter für Datenqualität
Datengüte im ERP-System messen und verbessern
Gerade in einer wirtschaftlichen Flaute sollten Unternehmen ihre Position sichern, neue Angebote entwickeln und bestehende verbessern. Eine gute Datenbasis sorgt dafür, das die Geschäftsprozesse reibungsarm ablaufen und Manager gute Entscheidungen treffen. Doch wie misst man die Güte der Systemdaten?
Mit einem siebenstufigen Leistungstest lassen sich gute von schlechten Daten etwa im Enterprise Resource Planning-System (ERP) unterscheiden. Unabhängig davon, ob es sich um eigene oder um Informationen aus anderen Quellen handelt, etwa von Wirtschaftsauskunfteien und anderen Drittanbietern. Im Folgenden werden die entscheidenen Parameter dargelegt.
Vollständige Daten
Je digitalisierter Abläufe werden, umso wichtiger ist es, dass alle benötigen Daten vorliegen. Sind beispielsweise Angaben zu Bauteilen für ein Produkt unvollständig, kann der Produktionsprozess stocken oder das Endprodukt entspricht nicht den Vorgaben. Deshalb empfehlen sich die Definition von Pflichtfeldern sowie automatisierte Prüfungen an ausgewählten Prozesspunkten. Unternehmen sollten dabei auf Datensparsamkeit achten. Denn bei personenbezogenen Daten gilt es, spätestens seit Inkrafttreten der Datenschutzgrundverordnung (DSGVO), nur Informationen zu speichern, die tatsächlich nötig sind. Nicht erforderliche Daten sind dauerhaft zu löschen.
Aktuelle Daten
Nicht-synchronisierte Adress- und Kontaktdaten sind ein Paradebeispiel für veraltete Informationen. Vertriebsmitarbeiter sind oft nur sporadisch in der Zentrale, deshalb ist die Kundendatenbank selten ganz aktuell. Mobile CRM-Lösungen können helfen. Außerdem halten sie produktionskritische Informationen wie Lagerdaten auf Stand. Dennoch muss nicht alles in Echtzeit vorliegen. Unternehmen sollten vielmehr ihre Prozesse so ausrichten, dass die Daten dort am schnellsten aktualisiert werden, wo das für mehr Produktivität sorgt.
Konsistente Daten
Datensätze müssen auch in verschiedenen Systemen konsistent sein. Die doppelte Datenhaltung in mehreren Anwendungen ist oft nicht nur ein Mehraufwand für die Dateneingabe, sondern auch fehleranfällig. Eine Fehlerquelle könnte der Übertrag der Auftragsdaten in eine Software zur Qualitätssicherung sein. Daraus resultierende Inkonsistenzen sind mit moderner Integrationstechnik relativ einfach in den Griff zu bekommen.
Konformität
Daten müssen den Anforderungen der Systeme und der Prozesse entsprechen, etwa im passenden, möglichst standardisierten Format vorliegen. Beispiele sind Datums- und Währungsformate. Bei Zeitstempeln ist ferner darauf zu achten, dass zusätzlich zu Stunden und Minuten auch die jeweilige Zeitzone miterfasst wird.
Ausreichende Genauigkeit
Daten müssen ausreichend in den Systemen gehalten werden. Nicht jeder Geschäftsprozess benötigt Hochpräzisionsdaten bis auf die x-te Kommastelle. Die Frage für die Verantwortlichen lautet: Wie exakt müssen die Daten jeweils sein? Die benötigte Genauigkeit sollte systemseitig durch Regeln und Datenprüfungen eingehalten werden.
Einzigartige Daten
Dubletten blähen nicht nur den Datenbestand auf. Sie sorgen auch für unnötige Rückfragen. Bleiben sie unentdeckt, kommt es schnell zu Fehlinterpretationen, wenn etwa ein Lieferant mehrere Lieferantennummern hat und dadurch Kennzahlen wie das Vertragsvolumen für Rabattverhandlungen nicht aggregiert werden. Redundante Daten aus einem Bestand herauszufiltern, geht bereits mit Bordmitteln eines Tabellenkalkulationsprogramms. Jedoch schleichen sich in der Praxis immer wieder Dubletten ein und die Arbeit beginnt von vorn. Ein automatisierter Data Quality Manager bietet einen nachhaltigeren Weg.
Richtige Daten
Dieses Kriterium verweist neben der Aktualität auf einen weiteren, wesentlichen Aspekt: nämlich die Verlässlichkeit der Daten. Die aktuelle Diskussion um Fake News unterstreicht dies einmal mehr: Eine brandneue Information über ökonomische Schwierigkeiten eines Zulieferers muss nicht zwingend zutreffend sein. Die Quellen, aus denen Unternehmen geschäftsrelevante Informationen beziehen, müssen also nachvollziehbar und glaubwürdig sein. Ein Qualitätsmanagement für Daten bewahrt vor kostspieligen Fehlern, erhöht das Vertrauen in die eigenen Daten und ermöglicht bessere Entscheidungen. Vor allem hilft es, Prozesse zu digitalisieren. Für diese datengetriebene Effizienz braucht es eine profunde und ehrliche Analyse, eine klare Strategie und den individuellen Einsatz für kontinuierliche Verbesserung auf allen Ebenen des Teams.
Wie starten mit Optimierungen
Wollen Firmen ihren Datenbestand gezielt auf ein höheres Niveau heben, sollten sie planvoll vorgehen. Der sinnvolle Start beginnt dort, wo bessere Daten den schnellsten oder höchsten Mehrwert liefern. Das kann im Einkauf sein, weil Lieferantenadressen, Konditionen und Lieferzeiten die operative Beschaffung beschleunigen. Aber auch die Produktion und Logistik kann dafür ein guter Startpunkt sein. Einige Analyseprogramme rund um die Datenqualität kommen heute völlig ohne Programmierung aus. Das Definieren der Regeln ist für einen User, der sich im System etwas auskennt, kein Hexenwerk. Für die laufende Datenprüfung und Bereinigung müssen die Daten auch nicht alle in einem System vorliegen. Prüfsoftware-Lösungen, sogenannte Data Quality Manager, prüfen die zuvor aus verschiedenen Quellen extrahierten Teilestämme, Kundendateien oder andere Daten gegen ein Regelwerk. Auch Prüfungen gegen externe Datenbanken, die etwa Postleitzahl und Straße plausibilisieren, sind möglich. Ein Ausnahmefall kann dabei direkt im Regelwerk vermerkt werden. Bei der Sicherung der Datenqualität helfen auf lange Sicht regelmäßige Checks. Die richtige Frequenz hängt vom Unternehmen, den Abläufen und Datenbeständen ab und wird auf die individuellen Ziele und Leistungsparameter abgestimmt. All das trägt dazu bei, die Position des Unternehmens auch in schwierigen Zeiten so gut es geht zu sichern. n Jochen Behrens ist Leiter Competence Center BI bei Proalpha
Gerade in einer wirtschaftlichen Flaute sollten Unternehmen ihre Position sichern, neue Angebote entwickeln und bestehende verbessern. Eine gute Datenbasis sorgt dafür, das die Geschäftsprozesse reibungsarm ablaufen und Manager gute Entscheidungen treffen. Doch wie misst man die Güte der Systemdaten?
Mit einem siebenstufigen Leistungstest lassen sich gute von schlechten Daten etwa im Enterprise Resource Planning-System (ERP) unterscheiden. Unabhängig davon, ob es sich um eigene oder um Informationen aus anderen Quellen handelt, etwa von Wirtschaftsauskunfteien und anderen Drittanbietern. Im Folgenden werden die entscheidenen Parameter dargelegt.
Vollständige Daten
Je digitalisierter Abläufe werden, umso wichtiger ist es, dass alle benötigen Daten vorliegen. Sind beispielsweise Angaben zu Bauteilen für ein Produkt unvollständig, kann der Produktionsprozess stocken oder das Endprodukt entspricht nicht den Vorgaben. Deshalb empfehlen sich die Definition von Pflichtfeldern sowie automatisierte Prüfungen an ausgewählten Prozesspunkten. Unternehmen sollten dabei auf Datensparsamkeit achten. Denn bei personenbezogenen Daten gilt es, spätestens seit Inkrafttreten der Datenschutzgrundverordnung (DSGVO), nur Informationen zu speichern, die tatsächlich nötig sind. Nicht erforderliche Daten sind dauerhaft zu löschen.
proALPHA Business Solutions GmbH
Dieser Artikel erschien in IT&Production 5 (Juni) 2020 - 10.06.20.Für weitere Artikel besuchen Sie www.it-production.com