Datenmanagement als neuer Controlling-Kernprozess

Festlegungen des Controlling-Prozessmodells der IGC: „Daten sind das neue Öl“ – diese Aussage ist gleichermaßen abgedroschen wie wahr. Zudem ist unbestritten, dass ohne solide Datenbasis die Leistungsfähigkeit des Controllings stark eingeschränkt ist. Last not least ist in vielen Unternehmen nicht klar abgegrenzt, welche Daten managementrelevant sind bzw der operativen Steuerung dienen und wie die Rolle des Controllings im Datenmanagement zu definieren ist. Die International Group of Controlling (IGC) liefert mit dem an die aktuellen Anforderungen angepassten Controlling-Prozessmodell 2.0. nützliche Grundlagen.


1. Datenmanagement als neuer Controlling-Kernprozess

Mit dem Controlling-Hauptprozess „Datenmanagement“ wird die Artikelserie rund um das Controlling-Prozessmodell 2.0 der International Group of Controlling abgeschlossen. Das seit 2011 vorliegende Prozessmodell leistet eine systematische Orientierungshilfe für die Ausgestaltung von Controlling-Prozessen in Unternehmen und versucht dabei, aktuelle Anforderungen und Trends im Controlling zu berücksichtigen. Es soll insbesondere anwendenden Führungskräften und Controllern eine Möglichkeit zum Abgleich der etablierten Controlling-Prozesse mit dem Controlling-Verständnis der IGC geben und grundsätzlich die Prozessorientierung im Controlling fördern.

Das Prozessmodell basiert auf diesem Verständnis sowie dem Controlling-Prozessmodell der ersten Auflage. Es stellt dazu zehn Hauptprozesse in den Mittelpunkt und soll dabei der Analyse, Gestaltung und Dokumentation der einzelnen Prozesse sowie der Festlegung von Verantwortlichkeiten dienen. Durch die aktuellen Entwicklungen der Informationstechnologie und -nutzung im Bereich Big Data, Analytics und Cloud-Technologien entstehen inzwischen zahlreiche Prozess-Varianten für die Ausgestaltung der Controlling-Prozesse. So finden sich bei stark technologie-orientierten Unternehmen in dynamischen Marktumfeldern zB hochautomatisierte Umsatzprognosen auf Basis von Zeitreihenanalysen und der Integration externer Daten. Von einer Standard-Ausprägung kann dabei allerdings (noch) nicht gesprochen werden.

Dennoch wurden im Zuge der Überarbeitung des Prozessmodells 2017 Anpassungen an aktuelle Entwicklungen vorgenommen, sowohl in den klassischen Controlling-Prozessen, zB in dem die Hauptprozesse „Operative Planung und Budgetierung“ mit „Forecasting“ integriert wurden, im Gegensatz dazu wurden die Hauptprozesse „Projekt- und Investitionscontrolling“ differenziert und „Datenmanagement“ als neuer Hauptprozess aufgenommen.

2. Zielsetzung des Prozesses

Zielsetzung des Prozesses „Datenmanagement“ ist es, sicherzustellen, dass alle Informationen, die das Management im Rahmen der regelmäßigen Steuerungsprozesse benötigt, in belastbarer Qualität verfügbar sind. Während es im „Management Reporting“ um die inhaltliche Relevanz von Informationen geht, hat der Prozess „Datenmanagement“ die Aufgabe, die Datenqualität, definiert als inhaltlich korrekte und zeitge­rechte Zurverfügung­stellung von Informationen, zu gewährleisten. Zusätzlich ist sicherzustellen, dass die Controller-Organisation die Governance über die strategisch und operativ steuerungsrelevanten Informationen ausüben kann.

Der Prozess „Datenmanagement“ widmet sich unter Controlling-Gesichtspunkten folgenden Aspekten:

a) dem betriebswirtschaftlichen Datenmodell, das die inhaltliche Struktur vorgibt,

b) den Datenflüssen, die die modellierten Daten bereitstellen,

c) der materiellen Qualität der Daten und

d) den notwendigen Rollenzu­ordnungen sowie Governance- und Weiterentwicklungsprozessen.

Es gibt weitere wichtige, primär technische Aspekte des Datenmanagements (zB Archivierung oder Löschung), die hier nicht weiter vertieft werden.

Abb 1: Controlling-Prozessmodell 2.0 (s International Group of Controlling 2017, 3)

Abb 1: Controlling-Prozessmodell 2.0 (s International Group of Controlling 2017, 3)

3. Abgrenzung unter Controlling-Gesichtspunkten

Auf Basis eines betriebswirtschaftlichen Datenmodells wird im Unternehmen eine zentrale Datenquelle etabliert und das Management über geordnete Datenflüsse mit steuerungsrelevanten und validen Informationen versorgt. Da sich Organisationen und deren Geschäft permanent ändern, muss sichergestellt werden, dass sowohl das betriebswirtschaftliche Modell als auch die technische Basis laufend an die aktuellen Bedürfnisse und Rahmenbedingungen angepasst werden.

In Unternehmen kann es eine nahezu unüberblickbare Anzahl an Datenquellen geben. Es wäre weder pragmatisch noch nützlich, die Controller-Organisation für alle Datenquellen und die Qualitäts­sicherung der in diesen Quellen vorhandenen Daten zuständig zu machen. Über einen Top-down-Approach ist zu identifizieren, welche Datenquellen managementrelevant sind. Neben den ERP-Kernsystemen wie Rechnungswesen oder Personalver­rechnung sind dies an die Kernsysteme liefernde Vorsysteme, zB die Fakturierung oder ein Auftragsmanagement. Für jede vorlagerte Stufe der Datenhaltung ist eine Einschätzung zu treffen, inwieweit bzw in welcher Aggregation die Inhalte dieser Vorsysteme für das Management relevant sind oder primär der operativen Geschäftsabwicklung dienen.

Auf Basis dieser Abgrenzung schafft der Prozess „Datenmanagement“ die datentechnische Grundlage für die darauf aufbauenden Steuerungsprozesse, zB Planung und Reporting. Die Erstellung eines Datenmodells unter betriebswirtschaftlichen Gesichtspunkten stellt hierfür das zentrale Element dar. Im Datenmodell werden für die einzelnen Themenbereiche (zB „Datencluster“ Finanz-, Kunden-, Produktionsdaten, …) ua Hierarchien und Merkmale festgelegt (zB für Konten, Kostenstellen, Mitarbeiter, Materialien, Produkte, Kunden …). Das Datenmodell spannt jenen Datenraum auf, der für Planungs-, Reporting- und Analysezwecke den Berichtserstellern und -adressaten zur Verfügung steht, um darauf aufbauend Entscheidungen treffen zu können. Es ist davon auszugehen, dass das Datenmodell inhaltlich und technisch im Zeitverlauf Änderungen unterworfen ist und mit der Organisation mitleben können muss. Jene Datenquellen bzw Inhalte, die als managementrelevant klassifiziert werden (und damit auch in Planung und Reporting relevant sind), sollten in eine zentrale Datenbasis (zB Data Warehouse) geladen werden, aus der das Management mit autorisierten Informationen versorgt wird („Single Source of Truth“). Es ist wichtig festzuhalten, dass nicht alle Informationen, die im Unternehmen vorhanden sind, in dieser Datenquelle repräsentiert sein müssen. Man kann sich zB bewusst dazu entscheiden, nur den Konzern­rechnungslegungsstandard, nicht aber lokale Rechnungslegungsstandards in der zentralen Datenbasis zu führen oder operative Detaildaten, die nur für eine einzelne Wertschöpfungsstufe relevant sind, nicht in der Single Source of Truth abzubilden. An dieser Stelle sei auch erwähnt, dass im Controlling-Panel 2020 sich 94 % der in Deutschland, Österreich und der Schweiz befragten Unternehmen diese autorisierte Datenquelle wünschen, aber nur jedes fünfte bereits diesen Schritt geschafft hat (vgl Waniczek/Kührer 2020, 50).

Die Verantwortung für die technische Durchführung der Datenmanagementprozesse ist festzulegen und wird idR in der IT-Abteilung liegen. Die Controller-Organisation nimmt hier eine Auftraggeberrolle ein.

Abb 2: Gestaltung des Hauptprozesses Datenmanagement (s International Group of Controlling 2017, 57)

Abb 2: Gestaltung des Hauptprozesses Datenmanagement (s International Group of Controlling 2017, 57)

4. Sicherung der Datenquelle

Um die materielle Qualität der Daten zu sichern, sind konzern- oder unternehmensweit verbindliche Maßnahmen zu setzen. Typische Maßnahmen sind Kontierungs­richtlinien zur einheitlichen Verbuchung von Geschäftsfällen, Controlling-Anweisungen zur Handhabung von organisatorischen Kontierungselementen (zB Kostenstellen oder Profit Center) oder Vorgaben zur Wartung diverser Stammdaten. Zur Plausibilisierung der Datenqualität sind Reports zu etablieren, die Ausreißer, fehlende Informationen oder Dateninkonsistenzen automatisiert identifizieren können. Durch Big Data und die zunehmende Nutzung externer, teilweiser unstrukturierter Daten (zB Social-Media-Daten), ist die Etablierung wirksamer Maßnahmen zur Sicherung der Datenqualität unabdingbar. Darüber hinaus wird es vielfach sinnvoll sein, Aktivitäten organisatorisch zu zentralisieren, zB eine zentrale Stelle zu schaffen, die sich um Stammdatenmanagement kümmert. Diese Stelle muss nicht Teil der Controller-Organisation sein. Die in Abb 2 dargestellten Prozessschritte zeigen, dass Datenmanagement eine Aufgabe darstellt, die alle Bereiche und Ebenen einer Organisation betrifft. Es ist daher besonders wichtig, Rollen klar zu definieren und die Aufgabe und Verantwortung der Controller-Organisation auch von anderen Aufgabenträgern klar abzugrenzen. Bei der Festlegung der Rolle hilft es, den Dateninhalt zu berücksichtigen.

Die Controller-Rolle kann im Wesentlichen zwei Ausprägungen haben:

a) die Controller-Organisation hat end-to-end Verantwortung („Controller als Datenmanager“) oder

b) die Controller-Organisation gibt Standards vor, die einzuhalten sind, um die entstandenen Daten in den Steuerungsprozessen sinnvoll nutzen zu können („Controller als Daten-Governor“).

Eine end-to-end-Verantwortung umfasst sämtliche Vorgaben, konzeptionelle Aufgaben und Kontrollmechanismen, die für ein Datencluster notwendig sind. Dies macht zB für „Finanzdaten“ weitgehend Sinn. Für andere Themenbereiche, zB Daten, die entlang der Wertschöpfungskette entstehen, wird sich die Controller-Organisation darauf beschränken, an Standards und Prozessen mitzuarbeiten bzw diese vorzu­geben. In der Praxis gibt es hier eine unternehmensspezifisch zu lösende Grauzone, da Controller auch als Produktions-, Logistik-, Vertriebscontroller etc tätig sind und eine aktivere Rolle auch in operativen Datenclustern einnehmen können.

Generell muss die Controller-Organisation für alle Daten, die in der Single Source of Truth enthalten sind, entweder selbst verantwortlich sein oder Qualitätsstandards vorgeben und deren Einhaltung kontrollieren können. Das zuvor beschriebene Rollenbild legitimiert die Controller-Organisation, Governance-Prozesse aufzusetzen und zu betreiben. Dabei kommen sämtliche Instrumente, die der Sicherung der materiellen Qualität der Daten dienen, zur Anwendung und liefern die Grundlage, um regelmäßig Maßnahmen zur Verbesserung der Datenqualität durchzuführen. Zusätzlich sind einerseits Meeting-Routinen zu etablieren („KVP-Zirkel“), die an die Standard-Steuerungsprozesse anknüpfen (zB vor- und nachbereitend zur Planung) und andererseits anlassbezogene Initiativen durchzuführen (zB Bereinigung diverser Strukturen).

4. Empfehlungen für einen erfolgreichen Datenmanagement-Prozess

Folgende Prinzipien haben sich in der Praxis bewährt:

  • Wählen Sie beim erstmaligen Aufsetzen einen Top-down-Approach und konzentrieren Sie sich auf „managementrelevante“ Daten.
  • Controller müssen eine aktive Rolle im Datenmanagement einnehmen können, ohne für alle Daten verantwortlich zu sein. Das Management muss dieses Rollenbild unterstützen.
  • Etablieren Sie eine zentrale Datenquelle („Single Source of Truth“), über die das Management Zugang zu autorisierter, qualitätsgesicherter Information hat. Beachten Sie dabei, dass darin nicht jede im Unternehmen verfügbare Information abgebildet werden muss.
  • Etablieren Sie Reports, die die Datenqualität formal auf fehlende oder inkonsistente Informationen prüfen können und Wartungsmängel bei Daten aufzeigen.
  • Betrachten Sie bei Datenqualitätsproblemen immer die gesamte Wirkungskette („record to report“) und bessern Sie nicht nur Datenfehler aus, sondern passen Sie bei Bedarf auch die Prozesse an, um zukünftige Fehler zu vermeiden.
  • Passen Sie das Datenmodell in Abstimmung mit den Nutzern an die aktuellen Bedürfnisse an. Dabei kann es sinnvoll sein, Änderungen nicht sofort umzusetzen, sondern im Sinne einer „Releasepolitik“ zu sammeln und Verbesserungen gebündelt umzusetzen.
  • Prüfen Sie aktiv, ob neu entstandene interne oder verfügbare externe Datenquellen für das Management relevant sind und binden Sie diese bei Bedarf in die Single Source of Truth ein.
  • Stellen Sie sicher, dass Sie über Know-how und Ressourcen an der Schnittstelle zwischen Betriebswirtschaft und IT verfügen, damit inhaltliche Anforderungen auch korrekt technisch umgesetzt werden.

Auf den Punkt gebracht

Die Leistungsfähigkeit des Controllings hängt in mehreren Dimensionen von einem gut organisierten Datenmanagement ab. Um das Management mit aussagekräftiger Information und transparenten Analysen zu versorgen, benötigt es ein mächtiges betriebswirtschaftliches und technisches Datenmodell, dessen Stammdaten professionell gewartet werden müssen. Um zeitnahe handlungsfähig zu sein, sind gut organisierte Datenflüsse notwendig. Um hohe Datenqualität zu liefern, muss diese durch das Controlling selbst bzw durch Vorgaben und Standards, an denen das Controlling zumindest mitgewirkt hat, gesichert werden.

Ein Top-Down-Zugang hilft, angesichts der Vielzahl an Datenquellen und enormen Datenmengen in den Unternehmen, abzugrenzen, was tatsächlich Controlling-relevant ist und daher in eine „Single Source of Truth“ aufgenommen werden muss und ermöglicht damit gleichzeitig eine Abgrenzung, für welche Datencluster Controlling inhaltlich zuständig ist, für welche es die Governance hat bzw Standards vorgibt und welche Daten vollständig in der Verantwortung anderer Funktionen oder des Business bleiben.


Literatur:

International Group of Controlling (Hrsg): Controlling-Prozessmodell 2.0, 2013.
Waniczek/Kührer: Forever Young – Controlling konsequent erneuern, CFOaktuell 3/2020, 49-52.


Der Beitrag ist in CFOaktuell (Heft 5/2020) erschienen. Mehr Infos unter: www.cfoaktuell.at


Weiterbildungstipp

Certified Controller | Das Controlling-Gütesiegel für Kompetenz und Professionalität
Wann? Start am 11. Februar 2021 in einer ONLINE-Durchführung | Info und Anmeldung

0 Kommentare

Dein Kommentar

An Diskussion beteiligen?
Hinterlassen Sie uns Ihren Kommentar!

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert