Gut oder schlecht? – Datenqualität richtig einschätzen

Das Qualitätsmanagement für Stamm- und Bewegungsdaten ist in die Liga der Top-Themen für den Mittelstand aufgestiegen. Grund dafür sind Digitalisierung und Industrie 4.0. Um die eigene Datenqualität hinreichend beurteilen zu können, rät der ERP-Hersteller proALPHA, sieben Kriterien heranzuziehen.


Viele Unternehmen haben in der Vergangenheit ihre Datenqualität vernachlässigt, aus unterschiedlichen Gründen. Dass ihre ERP-Systeme dadurch nur suboptimal performten, war ihnen nicht bewusst oder nahmen sie in Kauf. Mit der Digitalisierung der Prozesse und dem rasanten Aufstieg von Künstlicher Intelligenz (KI) wird dies noch zu einem größeren Risiko. Denn es ist wissenschaftlich belegt: Eine schlechte Datenqualität beeinflusst Effizienz und Ergebnis, auch bei KI-Systemen wie selbstlernenden Maschinen. Es ist jetzt Zeit, aktiv zu werden. Der ERP-Hersteller proALPHA rät, Daten einem siebenstufigen Leistungstest zu unterziehen – und zwar eigene Bestände genauso wie Informationen aus anderen Quellen, etwa von Drittanbietern. Die entscheidenden Performanceparameter sind:

  1. Vollständig
    Eine mobile Lösung erfordert zuallererst ein leistungsstarkes Netzwerk. Für den Datentransport „durch die Luft“ bestehen grundsätzlich zwei Möglichkeiten: das WLAN oder das Mobilfunknetz. Für den Einsatz auf dem Werksgelände nutzen die meisten Betriebe das drahtlose Unternehmensnetz. Hier gilt es, eine ausreichend hohe WLAN-Abdeckung dort sicherzustellen, wo Mitarbeiter mit mobilen Geräten unterwegs sein werden. Der Einsatz von LTE oder 4G ist eher dann angezeigt, wenn Anwender außerhalb des Firmengeländes aktiv sind, etwa im Vertrieb oder im Service.
  2. Aktuell
    Moderne Technologien ermöglichen heute eine dauerhafte Vernetzung mobiler Geräte mit dem Backend. Nur in stark abgeschirmten Bereichen ohne Mobilnetz, in Kühlhäusern oder Kellern, kann es noch nötig sein, Daten offline zu erfassen. Allerdings muss man sich stets bewusst sein, dass diese Daten bereits veraltet sein können, wenn sie erst später mit dem ERP-System synchronisiert werden. Ob diese Verzögerung vertretbar ist, hängt vom jeweiligen Use Case ab. Die Stammdaten-Pflege im Vertrieb kann kurze Verzögerungen verschmerzen. Dagegen sind Rückmeldungen von Lagerentnahmen in Echtzeit ein Muss, wenn mehrere Picker Aufträge kommissionieren. Sonst besteht die Gefahr, dass abhängige Prozesse ins Stocken geraten.
  3. Konsistent
    Datensätze in verschiedenen Systemen dürfen sich nicht widersprechen. In der Praxis führen eine doppelte Datenhaltung in mehreren Datensilos und manuelle Übertragung im besten Fall „nur“ zu Mehraufwand für die Dateneingabe. Im schlimmsten Fall entstehen Fehler, etwa beim Übertrag der Auftragsdaten in eine Software für Qualitätssicherung. Daraus resultierende Inkonsistenzen sind heute, dank moderner Integrationstechniken, relativ einfach in den Griff zu bekommen.
  4. Konform
    Daten müssen den Anforderungen der Systeme und der Prozesse entsprechen, zum Beispiel im passenden, möglichst standardisierten Format vorliegen. Datums- und Währungsformate sind hier Klassiker. Bei Zeitstempeln ist ferner darauf zu achten, dass zusätzlich zu Stunden und Minuten auch die jeweilige Zeitzone miterfasst wird. Schließlich liegen zwischen 8 Uhr in Shanghai und 8 Uhr in São Paulo 12 Stunden Zeitunterschied.
  5. Genau
    Daten müssen genau sein. Genauer gesagt: Sie müssen ausreichend genau sein. Denn nicht jeder Geschäftsprozess benötigt Hochpräzisionsdaten bis auf die x-te Kommastelle. Auch hier sollten sich Unternehmen zuerst fragen: Wie exakt müssen Messwerte und andere Daten sein? Die benötigte Genauigkeit sollte dann auch systemseitig durch entsprechende Regeln und Datenprüfungen nachgehalten werden.
  6. Einzigartig
    Dubletten blähen nicht nur den Datenbestand auf. Sie sorgen auch für unnötige Rückfragen. Bleiben sie unentdeckt, kommt es schnell zu Fehlinterpretationen. Zum Beispiel, wenn ein Lieferant mehrere Lieferantennummern hat und dadurch Kennzahlen wie das Vertragsvolumen für Rabattverhandlungen nicht aggregiert werden. Redundante Daten aus einem Bestand herauszufiltern, geht bereits mit Bordmitteln eines Tabellenkalkulationsprogramms. Jedoch schleichen sich so Dubletten immer wieder ein – und die Arbeit beginnt von vorn. Ein automatisierter Data Quality Manager bietet einen nachhaltigeren Weg zu sauberen Daten.
  7. Richtig
    Dieses Kriterium verweist neben der Aktualität auf einen weiteren, wesentlichen Aspekt: nämlich die Richtigkeit, die Verlässlichkeit der Daten. Die aktuelle Diskussion um Fake News unterstreicht dies einmal mehr: Eine „topaktuelle“ Information über ökonomische Schwierigkeiten eines Zulieferers muss nicht zwingend korrekt sein. Die Quellen, aus denen Unternehmen geschäftsrelevante Informationen beziehen, müssen also nachvollziehbar und glaubwürdig sein.

Das Verhältnis der Unternehmen zu ihren Daten ist oft zwiespältig: An einigen Stellen, etwa im Vertriebs- oder Finanzbereich, wird ihrer Qualität teilweise offen misstraut, an anderen Stellen, zum Beispiel in der Produktion, wird die Qualität oft überschätzt. Ein nachhaltiges Qualitätsmanagement für Daten hilft in dreierlei Hinsicht: Es bewahrt vor kostspieligen Fehlern, erhöht das Vertrauen in die eigenen Daten und ermöglicht bessere Entscheidungen. Vor allem aber helfen richtig gemanagte Daten, Prozesse zu digitalisieren. Um dieses Plus an datengetriebener Effizienz zu erzielen, können sich Unternehmen bei Spitzenmannschaften im Sport einiges abschauen: Es braucht eine profunde und ehrliche Analyse, eine klare Strategie und den individuellen Einsatz für kontinuierliche Verbesserung, auf allen Ebenen des Teams.

Weitere Fachinformationen finden Sie unter: www.proalpha.com/at/.

Für weitere Fragen steht Ihnen Frau Jessica Herzmansky gerne zur Verfügung:
E: Jessica.Herzmansky@proalpha.at
T: 05 7997 511

 

0 Kommentare

Dein Kommentar

An Diskussion beteiligen?
Hinterlassen Sie uns Ihren Kommentar!

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert