ChatGPT, erstelle meinen Quartalsbericht!

Kreative Künstliche Intelligenz wie ChatGPT kann Risikoanalyse, Finanzberichterstattung und Prognosen vereinfachen oder sogar automatisieren. Wie KI das Finanzreporting verändern wird.

ChatGPT von OpenAI hat noch viele Unzulänglichkeiten, doch die Möglichkeiten sind bereits sichtbar. KI aber das sensible Finanzreporting einfach zu überlassen, ist bislang zu früh.

ChatGPT von OpenAI hat noch viele Unzulänglichkeiten, doch die Möglichkeiten sind bereits sichtbar. KI aber das sensible Finanzreporting einfach zu überlassen, ist bislang zu früh. Foto: picture alliance / NurPhoto / Jakub Porzycki

Das Erstellen von Quartals- und Jahresberichten gehört selten zur Lieblingsbeschäftigung von IR-Abteilung oder beauftragten Textern. Zahlen müssen in Worte übersetzt werden und oft genug ändert sich von Quartal zu Quartal wenig Substanzielles – es geht mehr ums Um- als ums Neuformulieren. Zumindest diese Fleißarbeit im Finanzreporting kann schon heute eine generative Künstliche Intelligenz wie ChatGPT von OpenAI, Claude von Anthropic oder ein Schreibassistenzprogramm auf Basis eines „Großen Sprachmodells“ (Large Language Model, LLM) übernehmen.

Künstliche Intelligenz verspricht aber noch deutlich mehr: Dokumente und Zahlenkonvolute können einfach durchforstet und anders aufbereitet werden, unterschiedliche Datenbestände inhaltlich zusammengeführt und vereinheitlicht, Analysen komplett neu geschrieben werden. Und das alles in einem Bruchteil der Zeit, die Menschen dafür bislang benötigen. Generative KI kann mit den passenden Einstellungen Texte je nach Zielgruppe automatisch an Leseniveau und Vorwissen, Sprache und inhaltlichen Schwerpunkt angepasst umschreiben. Doch nicht nur bei der Erstellung, auch bei der Lektüre kann KI helfen: Leser können einfach mehrere Dokumente miteinander vergleichen, sich ihr eigenes Reporting erstellen lassen und beispielsweise Anomalien leichter erkennen.

... mich für den monatlichen Newsletter registrieren.

Spannende Informationen und relevante Themen aus der Wirtschaft und Finanzwelt in kompakter Form für Ihren unternehmerischen Alltag und für Ihre strategischen Entscheidungen.

Wir machen Wirtschaftsthemen zu einem Erlebnis.

Die KI erlaubt auf den Leser maßgeschneiderte Analysen, kann neue Querverbindungen aufzeigen.

In Zukunft werden Unternehmen ihren „Investor Relations IR-Chatbot“ haben, mit dem Investoren und andere Interessierte alle Informationen des Unternehmens durchsuchen und sich maßgeschneidert aufbereiten lassen können. Ganz neue Querverweise und Korrelationen können so abgebildet werden, die mit den bisherigen klassischen Suchalgorithmen nicht möglich waren. Chatbots sind schon länger möglich, doch waren sie bislang extrem limitiert. Die LLM-KI jedoch ist mit riesigen Datenmengen trainiert worden und entsprechend sehr viel mächtiger. Und die Anbindung an ChatGPT per Schnittstelle ist deutlich günstiger, als ein komplexes Chat-Programm selbst zu erstellen. Die Kosteneinsparungen auf allen Seiten dürften enorm sein.

Was noch nicht funktioniert

Doch ganz so schnell und einfach wird es nicht. Bislang wird sich kein seriöses Unternehmen auf ChatGPT fürs Finanzreporting oder die Analyse der Finanzberichte verlassen. Denn die Schwächen der KI, die OpenAI selbst auch deutlich herausstellt, sind bislang eklatant. Vor allem drei Punkte verhindern aktuell noch die ernsthafte Nutzung:

  1. Halluzinationen: ChatGPT – und auch Konkurrenzprodukte beispielsweise von Google – erfindet immer wieder einfach Informationen. Dabei gibt es keinerlei Hinweis darauf, dass die KI beispielsweise unsicher ist, ob bestimmte Angaben von ihr stimmen. So können völlig falsche Zahlen und Behauptungen im Text auftauchen. Fatal für die KI-gestützte Erstellung eines offiziellen Reportings durch die IR-Abteilung des Unternehmens, aber auch der „Leser“ kann in seiner individuell KI-erstellten Analyse erfundene Informationen finden. Auf die inhaltliche Korrektheit ist bislang kein Verlass, auch wenn beispielsweise OpenAI mit GPT-4, der Basis von ChatGPT, nun die Verlässlichkeit der Angaben um 40 Prozent gegenüber dem Vorgänger GPT-3.5 verbessert haben will. Doch auch danach sind die Antworten nach eigenen Angaben nur zu 70 bis 80 Prozent korrekt.
  2. Begrenzte Datenmenge: Bislang kann die KI nur eine begrenzte Menge an Informationen auf einmal verarbeiten. Auch hier hat das kürzlich veröffentlichte GPT-4 einen großen Sprung getan und soll jetzt über 25.000 Wörter verarbeiten können. Allerdings steht dieses Modell (GPT-4-32k) aktuell erst wenigen zur Verfügung; meist ist bei rund 6.000 Wörtern Schluss. Wer ein umfangreicheres Dokument zusammenfassen lässt, wird mit großer Wahrscheinlichkeit nur eine Zusammenfassung der ersten Teile erhalten – ohne das jedoch zu ahnen. Ebenso verliert die KI die Konzentration, wenn es um mehrere Anschlussaufgaben geht; sie leidet dann an einer Art Amnesie.
  3. Vermischung von In- und Extern: Wer sich ein bestimmtes Dokument aufbereiten lässt, kann sich bislang nicht darauf verlassen, dass wirklich nur die Informationen aus dem Dokument wiedergegeben werden. Es ist gut möglich, dass externe Angaben beigemischt oder halluziniert werden, weil die KI nur in vordefinierten Fällen mit „Dazu kann ich leider keine Angabe machen“ antwortet, aber nicht grundsätzlich bei Unwissenheit.

Mit hoher Wahrscheinlichkeit wird die maximale Datenmenge, die KI bearbeiten kann, in naher Zukunft noch größer. Schon heute gibt es Hilfsmittel, die längere Texte in kleine Pakete aufspalten, sie bearbeiten lassen und anschließend die Zwischenergebnisse zusammenführen. Durch gezielte Trainings der KI mit speziell zugeschnittenen Datenbeständen, dem sogenannten Finetuning, können zudem die Ergebnisse der KI besser auf die Bedürfnisse des jeweiligen Absenders zugeschnitten werden. So sinken die Fehleranfälligkeit und die Vermischung mit externen Daten. Wie zuverlässig, wie schnell und wie aufwendig das jedoch sein wird, ist bislang unklar. Denn die KI hat keine eigene Kontrollinstanz auf Plausibilität, sondern setzt ihre Ergebnisse im Kern nach Wahrscheinlichkeiten zusammen: Wenn der Satz mit A beginnt, wird er wahrscheinlich mit B enden. Welches B zu A ausgewählt wird, ist eine Frage der Trainingsdaten, der Komplexität und der Einstellungen des kreativen Freiheitsgrads des Sprachmodells.

Ohne Menschen geht es nicht

Bis auf Weiteres wird das Finanzreporting den Menschen als Kontrollinstanz benötigen. Eigentlich sollte das kein Problem sein – der Effizienzgewinn ist zwar nicht so hoch wie erhofft, aber doch erheblich. Denn statt wie bislang alles „händisch“ zu erstellen und durch einen Menschen kontrollieren zu lassen, ist nur noch die menschliche Kontrolle notwendig. Doch die ersten Erfahrungen mit KI-Texten zeigen, dass nicht nur der Leser, sondern auch der Absender („Nutzer“) diese Kontrollaufgabe leicht vernachlässigt. So blieb selbst in der kurzen Präsentation der Google-Chat-KI „Bard“ ein Fehler unentdeckt. Die Google-Mutter Alphabet verlor daraufhin am selben Tag zwischenzeitlich 100 Milliarden US-Dollar an Börsenwert.

Es mühselig wie die Suche nach der Nadel im Heuhaufen, im Nachhinein alle Informationen noch einmal zu überprüfen. Die Gefahr ist groß, dass eine sorgfältige Kontrolle vernachlässigt wird.

Die Lügen von ChatGPT klingen oft realistisch. Das macht es so verführerisch, sich blind auf die KI zu verlassen. Zugleich ist es mühselig wie die Suche nach der Nadel im Heuhaufen, im Nachhinein alle Informationen noch einmal zu überprüfen. Das Ergebnis der KI ist eine Blackbox. Auch wenn Suchmaschinen-Chatbots wie Bing AI ihre Angaben mit Links versehen, führen diese oft genug ins Leere: Die Informationen sind unter dem angegebenen Link gar nicht vorhanden.

Falschinformationen in der Finanzberichterstattung können für ein Unternehmen aber schnell sehr teuer werden. Dann drohen nicht nur Strafzahlungen, sondern Fehlinformationen können auch das Vertrauen der Stake- und Shareholder. Entsprechende Haftungsfragen sind bislang ungeklärt. Es ist aber naheliegend anzunehmen, dass anders als bei konventionellen IT-Systemen nicht der KI-Hersteller, sondern der Absender des KI-erstellten Finanzreports in Haftung genommen würde, solange die KI-Anbieter keine „Garantie“ für inhaltliche Korrektheit geben. Ob sie das – da sie selbst viele Ergebnisse der KI noch nicht nachvollziehen können – jemals tun werden?

Neue Sicherheitsrisiken

Der Blackbox-Charakter der KI erschwert zudem die Kontrolle, ob eine KI vielleicht manipuliert wird. Das ist vor allem dann gefährlich, wenn wie bei einem möglichen IR-Chatbot das Ergebnis auf Basis einer hausinternen KI erstellt wurde. Durch die Schnittstelle Chat können böswillige Anwender die Antworten manipulieren, sodass vom Hersteller der KI vollkommen unbeabsichtigte Antworten ausgegeben werden (auch als Waluigi Effekt bekannt). So ist es beispielsweise gelungen, einen Chatbot so zu manipulieren, dass er versuchte, dem Nutzer sensible Bankdaten zu entlocken.

Bis KI substanziell helfen kann, das Finanzreporting zu automatisieren, gilt es noch zahlreiche Hindernisse und Fehler zu beseitigen und einen verlässlichen Rechtsrahmen zu schaffen. Noch befinden sich ChatGPT & Co. auch erst in der Versuchsphase. Zwar sind die Fortschritte, die die Systeme schon innerhalb weniger Wochen erzielt haben, beachtlich. Heute sind sie erst ein betreuungsintensiver Assistent. Aber mit einer steilen Lernkurve.

03/2023
Chefredaktion: Bastian Frien und Boris Karkowski (verantwortlich im Sinne des Presserechts). Der Inhalt gibt nicht in jedem Fall die Meinung des Herausgebers (Deutsche Bank AG) wieder.


Das könnte Sie auch interessieren

Digitalisierung

Digitalisierung

Geplanter Kapitalismus

Droht eine Renaissance der Planwirtschaft? Die Eingriffe des Staats werden zumindest einschneidender. Das liegt nicht nur an geopolitischen Herausforderungen und dem Klimawandel, sondern auch an der Digitalisierung. Aber ausgemacht ist die Sache längst nicht.

Droht eine Renaissance der Planwirtschaft? Die Eingriffe des Staats werden zumindest einschneidender. Das liegt nicht nur an geopolitischen Herausforderungen und dem Klimawandel, sondern auch an der Digitalisierung. Aber ausgemacht ist die Sache längst nicht.

Digitalisierung

Digitalisierung

Cash is Queen?

Digital Wallets wie Apple Pay oder Paypal versprechen mehr Komfort beim Bezahlen. Doch eine Mehrheit der Deutschen lehnt sie noch ab. Das könnte sich ab der Jahresmitte ändern – und Auswirkungen auf E-Commerce und stationären Handel haben.

Digital Wallets wie Apple Pay oder Paypal versprechen mehr Komfort beim Bezahlen. Doch eine Mehrheit der Deutschen lehnt sie noch ab. Das könnte sich ab der Jahresmitte ändern – und Auswirkungen auf E-Commerce und stationären Handel haben.

Digitalisierung

Digitalisierung

Digital durchstarten

Längst verändert die Digitalisierung auch traditionelle Branchen. Wie finden Unternehmen die richtige Strategie für die digitale Zukunft? Der erste Schritt ist oft entscheidend – und mit den richtigen Beratern gar nicht so schwer.

Längst verändert die Digitalisierung auch traditionelle Branchen. Wie finden Unternehmen die richtige Strategie für die digitale Zukunft? Der erste Schritt ist oft entscheidend – und mit den richtigen Beratern gar nicht so schwer.