Verbesserung der Planungsqualität: Contributor Analytics

Das Einsammeln dezentraler Daten ist Bestandteil vieler Controlling-, Rechnungswesen- und Compliance-Prozesse. Am prominentesten erscheinen hierbei Planung und Konsolidierung, aber auch andere Prozesse wie Forecasting, Risikomanagement oder Compliance sind eng mit dem Einsammeln dezentral erfasster Daten verbunden. Dabei kommt es häufig zu inhaltlichen Problemen, wodurch die gemeldeten Informationen nur bedingt den Erwartungen entsprechen. Nach einer Studie des Business Application Research Centers (BARC) sehen 42 % der befragten Unternehmen die Qualität der Planungsergebnisse als größeres Problem an. 1

1. Vorbemerkung

Die Qualitätsprobleme bei der Daten­lieferung sind vielfältig. So sind zB Meldedaten bezüglich Lieferbeziehungen zwischen Tochter­gesellschaften im Rahmen des zwischenbetrieblichen Austauschs häufig nicht abgestimmt. Bei internationalen Konzernen kommen unterschiedliche Bewertungsansätze hinzu, die eine sinnvolle Zusammenführung erschweren. Auch andere Inkonsistenzen bis hin zur bewussten Manipulation gefährden die Aussagekraft der Meldedaten. Das bleibt nicht ohne Konsequenzen: Dass ein schlechter Forecast Geld kostet, ist hinlänglich bekannt. Ein Vertrauensverlust – intern wie extern – wirkt sich auf den Unternehmens­wert aus.

Eine Chance der Qualitätsverbesserung liegt im immer größer werdenden Einsatzspektrum von Predictive Analytics. Es ist naheliegend, solche Methoden auch im Rahmen der skizzierten Prozesse anzuwenden. Es bietet sich der Name Contributor Analytics an: Meldedaten der beitragenden Prozessbeteiligten werden in einem strukturierten Verfahren analysiert. Hierbei kommen statistische und auch andere quantitative Methoden zur Messung und Bewertung der Qualität der Meldedaten der beitragenden Prozessbeteiligten zum Einsatz.

Einige quantitative Methoden von Contributor Analytics sind bereits aus anderen Teildisziplinen der angewandten Statistik bekannt: zB die Ausreißer- oder Anomalieerkennung aus der Betrugserkennung, der unternehmensinternen Sicherheitsüberwachung (zB SIEM) oder als Teil der Kreditwürdigkeits­prüfung.

Zudem kann an die Erfahrung mit der Datenvalidierung angeknüpft werden. Eine Validierung von Meldedaten kann online oder offline erfolgen, wobei meist nur einfache Sachverhalte geprüft werden. Sind zB alle Daten vollständig? Werden Vorgaben (zB die vorge­gebene Rendite) eingehalten? Zum Teil können solche Zusammenhänge auch durch Kennzahlen abgebildet werden.

Contributor-Analytics-Methoden gehen aber deutlich weiter, indem auch Daten in die Analyse einbezogen werden, die nicht Bestandteil des Meldeprozesses sind. So können etwa Eigenschaften der Planer wie zB Erfahrungen im Meldeprozess (Kennzahl: Anzahl Teilnahme am Planungsprozess) in die Analyse einfließen. Zudem nimmt die Betrachtung von Unsicherheit einen weiten Raum ein. Das Ergebnis ist meist kein eindeutiger Regelbruch, sondern zunächst erst einmal ein Indikator mit einer statistisch ermittelten Wahrscheinlichkeit einer Regelverletzung.

Eine wichtige Werkzeugklasse ist die Anomalieerkennung (Outlier Detection). Aus der isolierten Betrachtung eines einzelnen Meldedatums lässt sich häufig nicht viel erkennen. Eine Betrachtung von Kombinationen kann da schon ergiebiger sein. So könnte zB ein Bereichsverantwortlicher immer später auf eine Nachfragever­änderung reagieren als seine Peers. Eine Auffälligkeit, die genauer betrachtet werden sollte.

Eine Analyse mittels Contributor Analytics kann als Ergebnis auch Validierungsregeln erzeugen. So könnte eine Analyse ergeben, dass ein Vertriebs­kostenanteil 10 % später mit einer hohen Wahrscheinlichkeit zu einer signifikanten Ergebnisabweichung führen wird. Entsprechend kann, wird ein solcher Wert eingetragen, eine Warnung erzeugt werden.

Beim Einsatz von Contributor Analytics sei allerdings auch vor zu großem Optimismus gewarnt. Es ist kein Allheilmittel zur Identifikation von Unwirtschaftlichkeiten. So wie eine Kostenprognose eine analytische Kostenplanung nicht ersetzen kann, kann die Statistik keine inhaltlichen Schwächen erkennen, sondern nur auf Auffälligkeiten hinweisen und mögliche Konsequenzen darlegen.

In der Folge werden die Möglichkeiten einer Unterstützung des Planungsprozesses durch Contributor Analytics dargestellt. Die zentrale Aufgaben­stellung ist, wie solche Unregelmäßigkeiten möglichst

  • automatisiert erkannt,
  • in einem strukturierten Prozess geklärt und gegebenenfalls behoben sowie
  • Lerneffekte genutzt werden können.

2. Unschärfen im Meldeprozess

Wie schon skizziert, sind die Qualitätsprobleme vielfältig. Welche Probleme in den Meldedaten können diagnostiziert werden?

  • Ursache von Ungereimtheiten können Erfassungsfehler sein. Diese können bei der direkten Eingabe der Meldedaten, aber auch schon bei der Verarbeitung in den Vorsystemen erfolgt sein. Grundsätzlich kann hier versucht werden, bereits im Vorsystem einzuwirken. Dies lässt sich aber nicht immer umsetzen, insb wenn es sich um Konzernstrukturen handelt. Die Art der Quelle hat Einfluss darauf, was mit den erkannten Fehlern passieren soll: Die ausschließliche Korrektur im Konsolidierungssystem ist wenig sinnvoll, wenn eine Korrektur der Vorsysteme geboten ist (zB wenn die Fortschreibung der Werte für Folgeperioden betroffen ist), wie es bei Bilanzpositionen der Fall ist. Allerdings können es Zeitaspekte notwendig machen, solche Bereinigungen direkt im konsolidierenden System durchzuführen und diese später im operativen System zu korrigieren.
  • Bewusst oder unbewusst fehlerhafte Einschätzungen dürften am schwersten zu erkennen sein. Dies kann sich ua auf die Bewertung beziehen. Die bewusste Manipulation ist von der Motivation her vielschichtig und geht bis hin zum vorsätzlichen Betrug. Letzteres dürfte in üblichen Meldeprozessen seltener vorkommen als etwa im Versicherungs- oder Kreditk­artengeschäft. Wahrscheinlicher ist die Ausnutzung von Bewertungsspielräumen zugunsten eigener Ziele. Unterschreitet ein Planer die übliche Investitionsquote in zunehmender Anzahl, können eigene Ziele stärker in den Vordergrund gerückt sein, sodass der kurz­fristige Erfolg zulasten der Substanz forciert wird. Eine kontinuierliche Veränderung könnte unter Umständen einen geplanten Unternehmenswechsel des Mitarbeiters als Ursache haben.
  • Eine unbewusste Wahrnehmungsverzerrung kann zu einer zu optimistischen (sogenannter Overconfidence Bias) oder zu pessimistischen Einschätzung führen. So könnte die Planung eines Vertriebsverantwortlichen kontinuierlich besser ausfallen als jene der Kollegen. Tritt die prognostizierte Entwicklung dann auch ein, ist die ambitionierte Planung nicht zu beanstanden. Durch die Zusammenführung von Plan und Ist über mehrere Perioden könnte sich der Planwert jedoch als übertriebener Optimismus darstellen. Insb wenn solche Abweichungen regelmäßig auftreten, sollte dies zum Einschreiten der übergeordneten Instanz führen.
  • Abweichungen können aufgrund zeitlicher und sachlicher Differenzen auftreten, die aus mangelnder Abstimmung der Teilsysteme resultieren. Dies kann in der Konsolidierung, aber auch in der Planung in Form von Intercompany-Differenzen auftreten. Da in der Planung häufig in den gleichen Systemen gearbeitet wird, lässt sich so etwas durch spezielle Verfahren wie das Follower-Leader-Prinzip weitgehend vermeiden: Kann nur eine Leistungsbeziehung eingetragen werden, die vom gegenüber nur bestätigt werden muss, ist eine Abweichung gar nicht möglich.

3. Die Analyse

Die Ausführungen sollen anhand eines konkreten Umfelds skizziert werden. Ein Szenario verdeutlicht dabei den Anwendungsbereich. Im Beispiel handelt es sich um einen einfachen Vertriebs-Forecast, der quartalsweise aktualisiert wird (siehe Abb 1).

Abb 1: Exemplarischer Analyseprozess auf Basis von Tagetik und R.

Contributor Analytics ist in einen integrierten Prozess eingebunden. Es kommt ein Portal zur Anwendung, mit dem verschiedene Analysen durchgeführt werden können. Ein entsprechender Prototyp kann mithilfe von Open-Source-Werkzeugen aufgebaut werden. Hier wurden R und Excel mit der Komponente BERT verwendet. R lässt sich einfach mit der Planungs- und Konsolidierungslösung Tagetik integrieren.

Ein permanent durchgeführter Forecast-Ist-Vergleich zeigt, dass die Abweichungen im Umsatz bei monatlicher Betrachtung hoch sind (Abb 2). 2 Im Szenario auf Unternehmensebene liegen diese bei deutlich über 5 %. Zur Verschärfung des Problems trägt bei, dass die Forecast-Abweichungen in den letzten Monaten deutlich stiegen. Entsprechend sollten Maßnahmen definiert werden, um die Genauigkeit des Forecasts zu verbessern. Zunächst werden die Ursachen für die schlechte Forecast-Genauigkeit geklärt.

Abb 2: Kontinuierliche Forecast-Analyse.

Die hohe Anzahl an Datenpunkten ersch­wert die Analyse. Zwar handelt es sich um eine vergleichsweise kleine Planungsstruktur. Allerdings ergeben neun Bereiche mit neun Produkten und vier Positionen über zwölf Perioden fast 4.000 Auswertungselemente. Über die Verdichtungen und Berechnungen erhöht sich der Analysebereich. Der Einbezug von sechs Konten und 2 x 4 Hierarchieelementen führt zu mehr als 12.000 Positionen. Wo können hier effizient die wesentlichen Brandherde gefunden werden?

Die klassische Strategie ist es, auf einer aggregierten Sicht mit der Analyse einzusteigen. Diese Aggregation führt in der Regel dazu, dass sich Detailschwankungen ausgleichen. Der übliche Drilldown, also das Bohren von hoher Ebene ins Detail, greift dann nicht, weil auf aggregierter Ebene kein Handlungsbedarf besteht. Eine flexible Suchfunktion kann hier helfen: Eine vollständige Suche über alle Kombinationen listet jene Planungspositionen auf, die besonders große Abweichungen aufweisen. Hierbei wird die Suche über Kombinationen aus detaillierten und verdichteten Elementen durchgeführt, zB über Produktgruppen in einem Vertriebsgebiet oder über Produkte in einem Vertriebsbereich. Eine Hitliste zeigt die größten Abweichungen absolut und in Prozent. Mit den Verantwortlichen für die hohen Abweichungen kann Rücksprache gehalten und es können weitere Einsichten bezüglich der Ausreißer eingeholt werden.

Mit dieser Analyse werden im Wesentlichen isolierte Sichten betrachtet, ua die Absatzentwicklung eines Produkts in einer Region. Werden hingegen nur Kennzahlen wie Deckungs­beträge betrachtet, läuft man Gefahr, nur Aggregate zu betrachten und damit kritische Entwicklungen zu übersehen. Ein Beispiel für eine nicht erkannte Auffälligkeit sind verstärkende kombinierte Wirkungen, die bei isolierter Betrachtung eines Datenpunkts nicht erkannt werden: zB sinkt der (prognostizierte) Umsatz eines Untersuchungsbereichs leicht, während seine Vertriebs­kosten steigen. In Kombination handelt es sich um einen Ausreißer, in der Einzelbetrachtung um keine erkennbare Ausnahmesituation. Hier könnten individuelle Kennzahlen gebildet werden ( Feature Engineering), der Definitionsaufwand durch die hohe Kombinatorik bei üblicherweise zahlreicher Positionen muss jedoch berücksichtigt werden. Mit der Bildung von Verhältniszahlen verschwindet auch die Größen­ordnung: Abweichungen werden unabhängig vom absoluten Einfluss auf das Gesamtbild sortiert. Anomalien in großen Geschäftsbereichen sind dementsprechend bedrohlicher als in kleinen Einheiten.

Eine Suche nach beliebigen Kombinationen ist daher zweckmäßig. Hier ist es aber sinnvoll, Hypothesen aufzustellen, um nicht beliebig viele Kombinationen zu analysieren (Curse of Dimensionality). Einstiegspunkt könnte eine Korrelationsmatrix sein, die mögliche Wirkungszusammenhänge zwischen den Positionen aufzeigt. Zwischen Vertriebs­kosten und Umsatz sollte ein Zusammenhang existieren. Bereiche, die eine hohe Diskrepanz ausweisen, werden angezeigt (Abb 3).

Bei vielen Planungspositionen entsteht dennoch eine große Anzahl an bivariaten Korrelationsmöglichkeiten. Jede Kombination erscheint überprüfens­wert. Hier wird es schnell sehr unübersichtlich. Es scheint daher interessant, eine beliebige Anzahl an Positionen zu wenigen generischen Einflussgrößen zu verdichten. Aus diesem Grund gibt es Verfahren wie die Faktoranalyse, die es ermöglichen, Positionen zusammenzufassen. Damit können ganze Bereiche auf komplexe Abweichungen hin analysiert werden.

Alternativ gibt es viele weitere Ansätze zur Anomalieerkennung. Die Benford-Analyse, die über eine Ergänzung in R einfach genutzt werden kann, betrachtet zB die Häufung der ersten oder zweiten Ziffern einer Zahl und vergleicht diese mit einer Standardverteilung. Die Ausreißeranalyse betrachtet Cluster in Form von Punktewolken. Elemente, die einen gewissen Abstand vom Mittelpunkt dieser Wolke überschreiten, werden als Ausreißer bezeichnet. So könnte gerade eine mittlere Besuchsrate auffällig sein, wenn die Abschlussquote auch dem Mittel­wert nahekommt, die Häufungen Seite 26 aber bei hohen Besuchsraten/Abschlussquoten und niedrigen Besuchsraten/Abschlussquoten liegen. Auch die Strukturanalyse kann helfen, mögliche Ausreißer aufzuzeigen. So könnte ein Vertriebsverantwortlicher chronisch neue Produkte bei der Planung vernachlässigen. Die Abweichung von der Durchschnittsverteilung kann sortiert dargestellt werden.

Die analytischen Methoden sind nahezu unbegrenzt. Der Vorteil einer offenen Lösung liegt darin, bedarfsorientiert neue Ansätze hinzufügen zu können.

Abb 3: Paarweise Ausreißeranalyse.

4. Der Prozess

Wie kann ein solcher Ansatz nun in einen bestehenden Meldeprozess integriert werden? Idealerweise sollte ein solches Verfahren mit den Planungsschritten eng verzahnt sein. Viele Planungslösungen verfügen über eine eigene Workflow­steuerung zur Freigabe, Weiterleitung und Rückweisung von Meldedaten. In diesen Prozess kann Contributor Analytics eingebunden werden.

Sind alle Meldedaten eingegangen, kann die Analyse gest­artet werden. Der Verantwortliche kann einzelne Analysen oder ein Standardpaket ausführen. Die Ergebnisse werden in der Regel in Form einer Hitliste präsentiert. Wichtig sind dabei eine Spalte zur Markierung von Auffälligkeiten und ein Kommentarfeld, um Anmerkungen zu hinterlegen und Fragen an den Planer zu stellen. Die auffallenden Elemente können priorisiert werden. Bei einer höheren Priorität können vom Planer zB ausführliche Informationen verlangt werden.

Abb 4: Korrekturprotokoll.

Nach Abschluss der Analyse wird die Liste den jeweils Verantwortlichen übermittelt. Der Status im Meldeprozess wird automatisch auf „zurückgewiesen“ gesetzt. Der Planungsverantwortliche muss nun die Auffälligkeiten bearbeiten. Er kann verschiedene Begründungen hinterlegen und gleichzeitig Änderungen vornehmen. Eine Begründungs­organisation könnte wie folgt aussehen:

  • Die Anomalie ist in Ordnung, weil
  • besondere Situation (Begründung);
  • die Einschätzung ist realistisch (Begründung).
  • Es erfolgt eine Korrektur aufgrund:
  • einer fehlerhaften Eingabe;
  • der ursprüngliche Wert war zu optimistisch;
  • der ursprüngliche Wert war zu pessimistisch;
  • andere Gründe für die Korrektur (Begründung).

Die Daten werden sodann erneut eingereicht und können in einer weiteren Runde von der vorgesetzten Instanz analysiert werden (Abb 4).

Von Interesse sind dabei wiederum Kennzahlen wie zB der Korrektur­faktor. Dieser stellt dar, wie viele auffällige Positionen angepasst wurden. Im Zeitablauf sollte der Korrektur­faktor aufgrund von Lerneffekten sinken. Idealerweise treten nur noch begründete Ausreißer auf. Einfache Fehler werden durch eine Echtzeitvalidierung abgefangen. Daher sollte eine permanente Überprüfung der Wirksamkeit dieses Prozesses stattfinden. Das Bewusstsein einer späteren automatischen Prüfung dürfte ebenfalls Auswirkungen auf die Qualität der Meldedaten haben.

Die Ergebnisse der Ausreißeranalyse können in die Planungslösung Tagetik eingebunden und aus den Erkenntnissen Validierungsregeln für das Planungssystem erzeugt werden. ZB könnte eine Validierungsregel lauten: das Verhältnis zwischen Umsatz und Verkaufspreis darf nicht 20 % sein, wenn nicht gleichzeitig eine Besuchsquote von 15 % geplant wurde. Damit ist eine Echtzeitanomalieerkennung möglich.

Auf den Punkt gebracht

Falscheingaben und divergierende Ziele beeinflussen die Planungs- und Vorschauqualität. Predictive Analytics stellt Methoden bereit, diese Problempunkte zu identifizieren. Um den vollen Mehrwert nutzen zu können, ist eine enge Anbindung an den Meldeprozess notwendig. Über R, Excel und Tagetik lässt sich eine solche Lösung relativ einfach realisieren.

0 Antworten

Hinterlassen Sie einen Kommentar

Wollen Sie an der Diskussion teilnehmen?
Wir freuen uns über Ihren Beitrag!

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert.