Generative KI im Controlling – Wie können Large Language Modelle das Controlling verändern?

Large Language Modelle wie ChatGPT und Co beherrschen aktuell die Schlagzeilen. Von der Generierung von Finanzberichten über die tiefgehende Datenanalyse bis hin zur autonomen Entscheidungsfindung – diese generative künstliche Intelligenz verspricht das Potenzial, das Controlling zu verändern. Der folgende Beitrag widmet sich den Fragen: Wie können Unternehmen das Potenzial von Large Language Modellen effektiv nutzen, um maßgeschneiderte Lösungen zu entwickeln? Wie werden Large Language Modelle künftig Einzug in das Controlling nehmen und wie werden sie zu einer Veränderung der Tätigkeiten von Controller:innen führen?


1. ChatGPT und die neue Ära künstlicher Assistenzsysteme

1.1. Einführung in Large Language Modelle

Seit der Möglichkeit eines niederschwelligen und kostenlosen Zugangs zum KI-basierten Sprachmodell (Large Language Modell (kurz: LLM)) „ChatGPT“ im November 2022 hat das Thema künstliche Assistenzsysteme in der öffentlichen Wahrnehmung deutlich an Präsenz gewonnen. Nutzer:innen können über ein Chatfenster Aufgaben, wie das Verfassen von Texten, Beantworten von allgemeinen Frage­stellungen etc, an ein künstliches Assistenzsystem stellen und erhalten unverzüglich eine Antwort.

ChatGPT zog damit innerhalb von zwei Monaten 100 Millionen Nutzer:innen an.1 Zudem werden laufend neue vergleichbare Tools auf den Markt gebracht. Die Fähigkeiten dieser KI-basierten Sprachmodelle, Texte zu generieren oder manuelle Prozesse bzw Tätigkeiten zu automatisieren, sind beeindruckend.

Dieses Potenzial bleibt Entscheidungsträger:innen in Unternehmen nicht unbemerkt. Laut einer Umfrage von Gartner wollen 45 % der Befragten nun mehr Geld in die Weiterentwicklung von KI-basierten Sprachmodellen investieren.2 Die zugrunde liegende Modellarchitektur wurde grundsätzlich schon 2017 von Google-Forscher:innen veröffentlicht und darauf aufgebaute LLMs wurden mit großen Datenmengen (zumeist Internettexte) trainiert, welche komplexe mathematische Verfahren nutzen, um Muster zu erkennen, Texte vorherzusagen und anschließend auszu­geben.3

Diese KI-basierten Sprachmodelle sind aber – wie schon angeführt – nicht nur zur Verarbeitung und Ausgabe von unstrukturierten Daten wie Texten einsetzbar, sondern können auch Muster- und Zusammenhänge in semistrukturierten Daten (zB Softwarecode) oder strukturierten Daten (zB Finanzdaten) erkennen und Programmcodes oder Finanzanalysen erstellen.

Um Muster- und Zusammenhänge zu erkennen, sind LLMs jedoch von der Verfügbarkeit großer Mengen an Trainingsdaten abhängig. Mangels verfügbarer Ressourcen (insbesondere Knowhow und Daten), ist die Erstellung eines unternehmensindividuellen LLMs sehr kostspielig und wird derzeit in der Regel nur von großen Informations­dienstleistungs­unternehmen und Forschungseinrichtungen in Betracht gezogen. Unternehmen können jedoch auf vortrainierte Basismodelle (wie ChatGPT (GPT 3.5) oder Llama2) zurückgreifen, und auf ihre Aufgaben­stellungen anwenden oder anpassen.

Eine grundlegende Entscheidung, die es dennoch zu treffen gilt, ist, ob dieses vortrainierte Basismodell ein kommerzielles Modell (zB ChatGPT, GPT4, Claude) oder eine Open-Source beziehungsweise ein Open-Access-Modell (zB Llama2, Falcon, MPT, Bloom, GPT-NeoX, OPT) mit der Erlaubnis zur kommerziellen Nutzung ist. Kommerzielle Modelle sind idR mit Lizenz­gebühren verbunden, beinhalten oftmals Support, aber auch das Risiko von einem bestimmten Anbieter abhängig zu sein. Bieten jedoch die Möglichkeit der einfachen Integration in verschiedene Anwendungen (zB API-Anbindung).4 Kommerzielle Modelle sind jedoch in der Regel intransparenter als Open-Source-Modelle. Open-Source-Modelle haben zudem gegenüber kommerziellen Modellen auch den Vorteil, dass diese frei an spezifische Anforderungen angepasst werden können.

Unabhängig, ob Open-Source oder kommerzielle Modelle, allen Modellen ist gemein, dass sie zu einem bestimmten Zeitpunkt mit bestimmten Daten trainiert wurden und dieses Training damit auch zu einem bestimmten Zeitpunkt in der Vergangenheit geendet hat. Das KI-basierte Sprachmodell verfügt daher zwangsläufig über einen veralteten Wissensstand. Während dies bei allgemein gültigen Informationen meistens keine Probleme verursacht, birgt dieser Umstand für viele Anwendungen, die einen aktuellen oder stark kontextbezogenen Wissensstand erfordern, die Gefahr von Fehlinformationen (vgl dazu ein anschauliches Beispiel: Abbildung 1).

Datei: images/cfoaktuell_2023_5_169-2.jpg

Abb 1: Ein Beispiel für veraltetes Wissen auf eine Frage, die durch generative KI beantwortet wurde.5

1.2. Möglichkeiten der Anpassung an einen aktuellen, domänenspezifischen und unternehmensindividuellen Wissensstand

Gerade für das Controlling ist ein aktueller und unternehmensbezogener Wissenstand unabdingbar, was wiederum maßgeschneiderte unternehmensspezifische Lösungen erfordert. Ein Ansatz, um eine maßgeschneiderte Lösung zu erhalten, ist der sog „Retrieval-Augmented-Generation-Ansatz“. Dieser Ansatz arbeitet mit einem vortrainierten KI-basierten Sprachmodell und den vom Unternehmen ausgewählten internen oder externen Datenquellen. Das KI-basierte Sprachmodell stützt sich dabei nicht nur auf sein antrainiertes Wissen, sondern greift auch auf relevante Informationen aus den zur Verfügung gestellten Quellen zu, bevor es ein finales Ergebnis generiert. An dieser Stelle sind Unternehmen einerseits gefordert, sich damit auseinanderzusetzen, welche Datenquellen als relevant für bestimmte Aufgaben erachtet werden.

Dies wird auch Controller:innen für ihre Domaine vorbehalten sein. Das LLM kann zwar sehr einfach – basierend auf bestehenden Berichten – Berichte in der Berichtssprache des Unternehmens erstellen. Damit, dass LLM aber auch Inhalte erstellen kann, muss der/die Controller:in genauestens analysieren, welche spezifischen internen und externen Daten verwendet werden sollen (zB welcher Kurs, welche Börse oder welche Preise sollen verwendet werden, um Abweichungen zu argumentieren).

Andererseits müssen Unternehmen auch technisch in der Lage sein, die Daten aus zB Dokumenten, Datenbanken etc so aufzubereiten (zB die Datensegmentierung, Konvertierung des Textes in Vektoren), dass sie effizient vom LLM verarbeitet werden können. Neben dem Domain-Knowhow sind damit auch IT- und KI-Knowhow unumgänglich.

Eine weitere Möglichkeit, spezifischere Antworten zu erhalten, ist die Feinabstimmung des Modells (Feintuning), indem es nicht nur mit öffentlich zugänglichen Daten, sondern mit zusätzlichen Trainingsdaten zur Lösung einer spezifischen Aufgabe trainiert und damit der Output des Modells für diese Aufgabe (zB Analyse der Kostenentwicklung für eine spezifische Kosten­art auf Basis bestimmter Parameter) besser wird.

Dies erfordert neben dem Zugang zu einem vortrainierten Modell die Auswahl der Trainingsdaten, die annotiert oder gelabelt sind und Beispiele für Szenarien mit bestimmten Antworten und Lösungen der spezifischen Aufgaben­stellung. Um eine Feinabstimmung eines LLMs vorzunehmen, sind die Rechen­leistung und umfangreiche IT-Kenntnisse insbesondere in Bezug auf Large Language Modelle erforderlich. Das feingetunte Large Language Model (LLM) kann im nächsten Schritt in eine Applikation integriert werden und als Assistent:in genutzt werden, um spezifische Aufgaben wie Texter­stellung, Beantwortung von Fragen, Erstellung von Analysen etc zu unterstützen.

1.3. Large Language Modell als „künstlicher“ Assistant: Fallbeispiel „CRF Assistant“

Die Applikation „CRF Assistant“ ist ein einfaches Beispiel für ein feingetuntes LLM und wurde im Frühjahr 2023 von den Autoren unter Verwendung von OpenAI‘s GPT3 ins Leben gerufen. Die Applikation diente als Pilotprojekt im Bereich der Anbindung externer Finanzinformationen an ein Sprachmodell, um dieses hinsichtlich dessen Fähigkeit zur Verarbeitung standardisierter Finanzinformationen zu untersuchen und auch den Prozess des Feintunings eines LLMs (wie OpenAI‘s GPT3) im Zusammenhang mit Finanzdaten zu veranschaulichen.

Der „CRF Assistant“ simuliert in einem Chatfenster eine Finanzberaterin, welche eine Kund:in bei Investment­entscheidungen, auf Basis von Fundamentaldaten und Analystenempfehlungen, berät. Der „CRF Assistant“ soll dazu nützliche Antworten auf Fragen zu Investitions­entscheidungen für Aktien geben. Zum Beispiel könnte eine Frage lauten: „Welche Aktien eines Automobilherstellerstellers scheinen aktuell kaufens­wert?“ Stellt man beispielsweise dem Modell GPT3.5 ohne Feintuning die Frage, erhält man folgende Antwort: „Ich kann keine Echtzeitinformationen über Aktienkurse oder Marktbedingungen liefern, da meine Daten nur bis September 2021 aktuell sind und ich nicht in der Lage bin, auf aktuelle Marktentwicklungen nach diesem Datum zuzugreifen. Die Kaufentscheidung für Aktien erfordert umfassende Recherche und Analyse, einschließlich aktueller Finanzdaten, zukünftiger Aussichten des Unternehmens und allgemeiner wirtschaftlicher Bedingungen. (…)“

Datei: images/cfoaktuell_2023_5_170.jpg

Abb 2: Das User-Interface der Applikation „CRF Assistant“.

Das ist nicht die Antwort, die man sich von einem nützlichen Assistenten erwartet. Allerdings ist das vortrainierte Sprachmodell in seiner Antwortweise eingeschränkt, da seine Trainingsdaten (GPT3 wurde 2020 trainiert), nicht die neuesten Fundamentaldaten enthält. In der Interaktion mit dem LLM zeigt sich „nur“ die Fähigkeit zur Sprachverarbeitung. Aktuelle Finanzinformationen von Unternehmen können von spezialisierten Finanzinformations­diensten wie zB Yahoo Finance bezogen werden. Das Sprachmodell muss demnach lernen, auf diese Quellen zuzugreifen. Bei der Applikation „CRF Assistant“ erfolgt der Zugriff auf aktuelle Fundamentaldaten über Aktienticker.

Dazu ist der Code der Applikation „CRF Assistant“ mit der API-Schnittstelle von Yahoo Finance verbunden. Im nächsten Schritt kommt das KI-basierte Sprachmodell ins Spiel. Das LLM verarbeitet die Fragen der Nutzer:in und fragt notwendige Informationen vom Finanz­dienstleister mittels Aktienticker ab.

Die Verarbeitung von Text ist eine Standardfunktion des LLMs, nicht so jedoch die Bereit­stellung von Aktientickern. Das LLM, das mit verfügbaren Daten aus dem Internet trainiert wurde, weiß grundsätzlich was ein Aktienticker ist, muss jedoch trainiert werden, sodass es auch bei jeder Anfrage nach Aktienticker sucht und mit diesen in Yahoo Finance die Fundamentaldaten erhebt und schließlich für die Bewertung der Aktien heranzieht. Welche Aktien grundsätzlich als vorteilhaft zu betrachten sind, weiß das LLM, wenn es mit aktuellen Finanzinformationen konfrontiert wird, da es allgemeingültiges Wissen aus Internetquellen darstellt. Ziel des Feintunings des verwendeten LLMs im „CRF Assistant“ war, bei jeder Anfrage einer Nutzer:in automatisch vor der Antwort nach relevanten Aktientickern zu suchen und nicht mit Standardantworten (siehe oben) zu antworten. Der dazugehörige Feintuning-Trainingsdatensatz bestand aus 1.000 Frage-Antwort-Paaren, zB „Soll ich in den Bereich der kuenstlichen Intelligenz investieren?\n“, „completion“: „GOOGL\nAAPL\nIBM\nMSFT\nINTC“}.

In unserer Applikation haben wir die Aus- und Abfrage auf fünf Unternehmen beschränkt, ein effektiver Produktionseinsatz würde einen deutlich größeren Trainingsdatensatz erfordern. Für die ausgewählten fünf Unternehmen werden in weiterer Folge die Fundamentaldaten vom Finanzinformations­dienst abgefragt, vom LLM analysiert und eine entsprechende Empfehlung generiert und ausge­geben.

Durch das Feintuning wurde eine neue Modellversion des LLMs erstellt, wodurch das Modell nun (theoretisch), eingebettet in eine Applikation, als virtueller Finanzberater bei Investitions­entscheidungen unterstützen kann. Die Ausgabe des angepassten Modells wird zudem an den Sprachverarbeitungs­dienst ElevenLabs gesendet, wodurch eine Audioausgabe der Antwort erfolgt. Die Ausführung der Applikation „CRF Assistant“ kann als YouTube-Video eingesehen werden.6 Es ist zu berücksichtigen, dass diese Anwendung ausschließlich zu Zwecken der Lehre und Forschung verwendet wird.

In der globalen Finanzindustrie wird an ähnlichen Applikationen gearbeitet. Morgan Stanley experimentiert mit GPT4 am LLM-Einsatz für die Finanzberatung,7 die Deutsche Bank arbeitet gemeinsam mit NVIDIA an einer eigenen Transformer-Architektur für den Finanzbereich, genannt „Finformer8, die Industrial and Commercial Bank of China setzt seit Kurzem ein, gemeinsam mit Huawei entwickeltes, Finanzmodell im Kundenservice ein.9 Der Finanzinformations­dienstleister Bloomberg entwickelte auf Basis der europäischen BLOOM-Architektur (der Name des Modells ist nur zufällig ähnlich), ein mit Finanzdaten trainiertes Modell namens BloombergGPT, welches künftig Nutzer:innen als Zusatzfunktion bei ihrer Arbeit innerhalb des Bloomberg-Terminals unterstützen soll. Mit FINGPT versucht eine Open-Source-Initiative derartige Funktionen auch Nutzer:innen ohne Zugang zu einem Bloomberg-Terminal zu ermöglichen und das vor Kurzem veröffentlichte Modell „FinMA“ verspricht ebenfalls besondere KI-basierte Expertise im Finanzbereich.

2. Wie LLM-Modelle die Aufgaben von Controller:innen verändern werden

Selbst erstellte Assistenzsysteme, die auf LLM-Modellen basieren, wie das soeben vorgestellte Beispiel, werden die Tätigkeiten von Controller:innen verändern, wenn auch zu erwarten ist, dass nicht jedes Unternehmen derartige „künstliche“ Assistenzsysteme selbst erstellen wird. Neben der Möglichkeit im eigenen Unternehmen LLM-Modelle an die spezifischen Bedürfnisse zu adaptieren, zeichnet sich ab, dass Softwarehersteller:innen mit Hochdruck daran arbeiten, generative KI wie ChatGPT und Co in ihre Produkte zu implementieren. In den kommenden Jahren werden Controller:innen LLM-Modelle und damit verbundene „künstliche“ Assistent:innen als Zusatzfunktion in bestehenden ERP-, CPM- oder spezifischen Controlling- und Reportinglösungen finden.

Diese Zusatzfunktion ermöglicht es, dass Controller:innen in natürlicher Sprache Aufgaben formulieren und von „künstlichen“ Assistent:innen bearbeiten lassen. Diese Zusatzfunktionen können die Automatisierung von Routineaufgaben aber auch von analytischen Aufgaben vorantreiben. Im einfachsten Fall würde dies das Ausformulieren von Texten wie E-Mails und Berichten basierend auf Stichwörtern sowie die Übersetzung dieser Texte an die relevanten Adressat:innen in ihrer jeweiligen Sprache umfassen. Ebenso könnten virtuelle menschliche Doubles für die effiziente Erstellung multilingualer Präsentationen generiert werden und zu einer Effizienzsteigerung in der externen und internen Kommunikation beitragen.10

Die Nutzung von LLM ist aber nicht nur auf die Texter­stellung eingeschränkt. Das kürzlich veröffentlichte Tool „LIDA“ von Microsoft Research11 ist zB in der Lage, automatisch Visualisierungen für zB Finanzdaten zu erstellen, welche durch die Nutzer:innen mit Eingaben (derzeit noch in englischer Sprache) angepasst werden können. Es kann erwartet werden, dass derartige Funktionen bald auch direkt in MS Excel und MS PowerBI zur Verfügung stehen. Ähnliche Funktionen wurden auch von Salesforce bereits für die Datenvisualisierungssoftware Tableau vorgestellt.12

Die Open-Source-Datenanalyse-Plattform „Knime“ implementierte vor Kurzem eine auf ChatGPT basierende Assistent:in, welcher beim Aufbau von Workflows zB Datenaufbereitung und -analyse unterstützt. Dem künstlichen Assistenzsystem wird dabei, ähnlich wie bei „LIDA“, der Workflow (zB Datenanalyse) im Detail in natürlicher Sprache beschrieben, woraufhin Knime automatisch die richtigen Nodes (Bausteine), mit welchen der Prozess im Programm erstellt wird, vorschlägt.13 Werden Daten mit einem Python Script verarbeitet und analysiert, kommt bei Verwendung der Programmiersprache Python häufig die Open-Source-Bibliothek „Pandas“ zum Einsatz.

PandasAI“ hat seit Kurzem eine Zusatzfunktion eingeführt, wodurch die Erstellung eine Codes nicht mehr erforderlich ist, sondern lediglich dem Sprachmodell gegenüber eine Aufgabe formuliert werden muss, eine entsprechende Auswertung für ein bestimmtes Datenset zu erstellen.14 SAP erforscht Anwendungsszenarien für LLMs in seinem ERP-System, insbesondere im Kontext der intelligenten Prozessautomatisierung innerhalb der SAP-Business-Technology-Plattform. Durch die Möglichkeiten von generativen KI-Modellen könnten somit Routinetätigkeiten wie das adressatenspezifische Formulieren von Texten, technische Analysen und Datenvisualisierungen aber auch Eingaben im ERP-System bald einem künstlichen Assistenten übertragen werden.

Anwendungsfelder für generative KI umfassen jedoch nicht nur die Automatisierung von Routinetätigkeiten oder die Prozessoptimierung, sondern auch analytische Tätigkeiten in der Domäne „Controlling“ wie zB die effiziente und zeitnahe Durchführung von zB Abweichungsanalysen basierend auf internen Quellen (Präsentationen, Berichte, Protokollen, Verträgen, Datenbanken etc) aber auch externen Quellen (zB öffentlich zugänglichen Informationen der Konkurrenz, Kund:innen, Lieferant:innen oder sonstigen Stakeholdern). In diesen Fällen würde das Sprachmodell nicht nur basierend auf allgemeingültigem Input (zB Stichwörtern) Texte oder Visualisierungen erstellen, sondern aus dem domain- und unternehmensspezifischen Wissensfundus Zusammenfassungen bzw Erläuterungen für bestimmte Frage­stellungen liefern (zB „Erläutere die Abweichungen im Geschäftsbereich X“).

Dazu muss, wie zB bei BASF Coatings ein LLM-Modell anpasst werden, um relevante Berichtsinhalte zu generieren. Bei BASF Coatings geschieht dies durch das Ergänzen von Sätzen sowie die Nutzung von professionellen Analystenberichten als Datenbasis.15 Die auch von Controlling- und Reportingsoftwareherstellern – wie CoPlanner – angedachten Zukunftsszenarien der Adaptierung von Controlling- und Reportinglösungen könnte das Arbeiten im Controlling völlig verändern. So könnte sich die Analyse der Finanzdaten künftig auf das Stellen und Formulieren der richtigen Fragen und Aufgaben­stellungen konzentrieren.16 Beispiele dafür wären, „Aus welchen Gründen konnte der geplante Umsatz im Geschäftsbereich X nicht erreicht werden?“ oder „Plane den Umsatz für einen bestimmten Geschäftsbereich, führe die Quellen an und dokumentiere die Vorgehensweise?“17

An dieser Stelle gilt es zu erwähnen, dass bereits vor der Omnipräsenz der KI-basierten Sprachmodelle der Einsatz von KI-Modellen und damit verbundenen Unterstützungsmöglichkeiten im Controlling zur effizienten und automatisierten Analyse, Visualisierung, Planung, Budgetierung und Prognose von Finanzdaten als auch Berichter­stellung diskutiert und erkannt wurden.18 „Was wirklich aufregend und neu ist, das ist der wirklich einfache Zugang zu diesen (…)“.19

3. Welche Aufgaben und Kompetenzen künstliche Assistenzsysteme von Controller:innen erfordern

Durch den einfachen Zugang zu KI-basierten Sprachmodellen wird die Bereitschaft, sich mit den künstlichen Assistenzsystemen auseinanderzusetzen, deren Möglichkeiten aber auch Grenzen in der Zusammenarbeit auszuloten,20 unerlässlich sein, um den Output der auf KI-basierenden Sprachmodelle beurteilen zu können. KI im Controlling ist damit kein Zukunftsthema mehr.

Controller:innen können (Routine-)Tätigkeiten in natürlicher Sprache an „künstliche“ Assistent:innen übertragen. Notwendig wird jedoch sein, die Ergebnisse der „künstlichen“ Assistent:innen zu beurteilen, was wiederum bedeutet, dass Controller:innen über Expertenwissen verfügen müssen, um die Ergebnisse zu beurteilen und gegebenenfalls LLMs so zu trainieren, dass diese die Aufgaben korrekt erledigen. Auch wenn Routinetätigkeiten wegfallen, im Kontext von KI-basierten Sprachmodellen könnte sich die Rolle von Controller:innen erweitern.

Ähnlich wie gegenwärtige Führungskräfte Überlegungen anstellen, um geeignete Mitarbeiter:innen auszuwählen und die adäquate Zuweisung von Aufgaben an einzelne Mitarbeiter:innen vorzunehmen, werden zukünftige Controller:innen analoge Prozesse für „künstliche“ Assistent:innen übernehmen.

Domain- und unternehmensspezifisches Knowhow, Kenntnisse der Datenverarbeitung durch LLM-Modelle sowie damit verbundenen Limitationen (zB Fehlinterpr etation von Informationen, Datenschutz etc) werden von grundlegender Bedeutung sein, um als kritischer „Business Partner“ bestmögliche Entscheidungsgrundlagen für das Management aufzubereiten.

Auf den Punkt gebracht

Der Beitrag zeigt das Potenzial von KI-basierten Sprachmodellen für das Controlling. Mit den „künstlichen“ Assistent:innen wird eine (weitere) Automatisierung von Routinetätigkeiten möglich. Inwieweit durch „künstliche“ Assistenten nicht nur Unterstützungstätigkeiten, sondern auch komplexe, analytische Aufgaben wie das Forecasting völlig autonom möglich werden, wird sich zeigen.21

Die Zusammenarbeit mit „künstlichen“ Assistenzsystemen, insbesondere durch Zusatzfunktionen in bestehenden IT-Lösungen, zeichnet sich jedoch für Controller:innen ab. Controller:innen müssen damit in der Lage sein, den Output „künstlicher“ Assistenten zu beurteilen sowie gegebenenfalls für spezifische Aufgaben zu trainieren. Umfassendes domainspezifisches Knowhow sowie branchen- und unternehmensspezifisches Wissen wird wichtiger denn je.

1 Vgl Sachse, FAZ vom 11. 4. 2023.

2 Vgl dazu im Detail https://www.gartner.com/en/newsroom/press-releases/2023-05-03-gartner-poll-finds-45-percent-of-executives-say-chatgpt-has-prompted-an-increase-in-ai-investment (Zugriff zuletzt am 5. 9. 2023).

3 Vgl Vaswani et al, Attention is All you Need, Advances in neural information processing systems (2017) 3104 ff.

4 Anzumerken ist, dass auch für manche Open-Access-Modelle Cloud-Lösungen mit API-Anbindung existieren. Eine Plattform für webgehostete Open-Access-Modelle ist zB https://together.ai/.

5 Abfrage von ChatGPT am 21. 8. 2023. Offizielles Zahlungsmittel in Kroatien ist seit 1. 1. 2023 der Euro.

6 Die Ausführung der Applikation steht als Youtube-Video unter https://www.youtube.com/watch?v=-ENA95SvR7I zur Verfügung (Zugriff zuletzt am 5. 9. 2023).

7 Vgl dazu https://www.forbes.com/sites/tomdavenport/2023/03/20/how-morgan-stanley-is-training-gpt-to-help-financial-advisors/?sh=115196643fc3 und https://www.morganstanley.com/press-releases/key-milestone-in-innovation-journey-with-openai (Zugriff zuletzt jeweils am 5. 9. 2023).

8 Vgl dazu https://blogs.nvidia.com/blog/2022/12/07/deutsche-bank/ (Zugriff zuletzt am 5. 9. 2023).

9 Vgl dazu https://www.huawei.com/cn/news/2023/3/ascend-ai-finance-icbc (Zugriff zuletzt am 5. 9. 2023).

10 Als Vorreiter gilt hier zB EY, welche gemeinsam mit dem Unternehmen „Synthesia“ unter Verwendung von LLM erstellen; vgl Seymour et al, AI with a Human Face, Harvard Business Review, März/April/2023, 50 f.

11 Vgl Dibia, in: arXiv preprint arXiv:2303.02927, download unter: https://microsoft.github.io/lida/ (Zugriff zuletzt am 5. 9. 2023)

12 Vgl https://www.tableau.com/blog/tableau-pulse-and-tableau-gpt (Zugriff zuletzt am 5. 9. 2023).

13 Vgl https://www.knime.com/blog/announcing-knime-analytics-platform-51 (Zugriff zuletzt am 5. 9. 2023).

14 Vgl https://pypi.org/project/pandasai/ (Zugriff zuletzt am 5. 9. 2023).

15 Vgl zB Kerkmann, in: Handelsblatt, Online-Ausgabe vom 5. 7. 2023.

16 Vgl Nordsiek, ChatGPT & Co: Die Revolution des Controllings durch generative KI, unter: https://www.coplanner.com/controlling-wissens­wertes/chatgpt-ki-revolutioniert-das-controlling (Zugriff zuletzt am 5. 9. 2023).

17 Vergleichbare Fragen finden sich bei Nordsiek, ChatGPT & Co.

18 Vgl dazu zB Losbichler, Künstliche Intelligenz im Controlling. Einsatzmöglichkeiten und Grenzen maschineller Forecasts, in: Controller Magazin Special 2020, 12 ff.

19 Vgl Nordsiek, ebenda.

20 Vgl dazu auch die Ausführungen iZm maschinellen Forecasts bei Losbichler, Predictive Forecasting im Controlling: Potenziale und Limitationen, in: Gleich (Hrsg), Controlling Challenge 2025: Agil, digital effektiv (2020) 75 ff.

21 Vgl Losbichler, Predictive Forecasting im Controlling. (2020) 75 ff.


Dieser Artikel ist zuerst in CFOaktuell Heft 5/2023 veröffentlicht worden. Alle Infos unter: www.cfoaktuell.at

0 Kommentare

Dein Kommentar

An Diskussion beteiligen?
Hinterlassen Sie uns Ihren Kommentar!

Schreiben Sie einen Kommentar

Ihre E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind mit * markiert