Kategorien

Computergestützte Textanalyse: Die Revolution an den Finanzmärkten


„Eine Prognose ist sicher: Die Geschwindigkeit künftiger Veränderungen wird uns überraschen, denn der Mensch denkt primär in linearen Entwicklungen“, prophezeit Prof. Dr. Thorsten Sellhorn.

Computergestützte Textanalyse wird die Informationsverarbeitung am Kapitalmarkt drastisch verändern, denn sie reduziert die Kosten und steigert die Geschwindigkeit. Doch wo viel Licht ist, gibt es auch Schatten, erklären die Experten Prof. Dr. Thorsten Sellhorn und Julia Menacher, M.Sc., beide am Institut für Rechnungswesen und Wirtschaftsprüfung, Fakultät für Betriebswirtschaft, Ludwig-Maximilians-Universität München, in unserem Interview.

DB: Inwiefern wird die computergestützte Textanalyse die Informationsverarbeitung an den Finanzmärkten revolutionieren?

Prof. Dr. Thorsten Sellhorn und Julia Menacher: „Bereits heute sehen wir, dass professionelle Anleger und Börsenaufsichten verstärkt auf automatisierte Informationsverarbeitung setzen. Nachrichtenagenturen und Medienhäuser erstellen sogar ihre Meldungen teilweise vollautomatisiert. Hier sind verschiedene Auswirkungen absehbar. Früher waren Anleger fast ausschließlich auf Zahlen fixiert. Denken Sie an finanzielle Kennzahlen wie z. B. den klassischen Gewinn je Aktie oder – eine neuere Entwicklung – nicht-finanzielle Kennzahlen wie den CO2-Ausstoß. Die automatisierte Informationsverarbeitung rückt nun Texte stärker in den Fokus. Dazu gehören etwa die von Unternehmen veröffentlichten Lageberichte, Anhänge und Pressemeldungen – aber auch von Dritten produzierte Nachrichten und Einträge in sozialen Medien. Der menschliche Nutzer droht in dieser Textflut schnell zu ertrinken; zudem ist seine Interpretation oft subjektiv. Textanalyse-Algorithmen hingegen können riesigen Textmengen schnell, effizient und objektiv nachvollziehbar bestimmte Informationen entnehmen und diese einer strukturierten und quantitativen Weiterverarbeitung zugänglich machen.

Diese Entwicklung wird die Anforderungsprofile und Tätigkeiten der Marktteilnehmer massiv verändern. Wir sehen nicht, dass der menschliche Informationsanalyst verdrängt wird. Vielmehr wird das Sammeln und Auswerten standardisierter Informationen durch den Einsatz von Textanalyse-Algorithmen deutlich schneller und effizienter. Dies setzt zeitliche Ressourcen für komplexere und kontextspezifische Analysen frei, bei denen menschliche Experten ihr Erfahrungswissen einbringen können. Denn Textanalyse-Algorithmen sind zwar z. B. für das Auszählen von Wortlisten oder die Extrahierung standardisierter Informationen bereits geeignet. Bei komplexeren Fragestellungen, die beispielsweise stark auf den konkreten Kontext abstellen, oder dort, wo nicht „druckreif“ und strukturiert kommuniziert wird, stoßen sie noch an ihre Grenzen. Genau diese unstrukturierten Informationen dürften jedoch an Bedeutung gewinnen, wenn man am Finanzmarkt künftig noch erfolgreich sein will.

Der Fortschritt in diesem Bereich schreitet exponentiell voran, da die nötigen Inputfaktoren – Rechenleistung und Datenvolumen – immer schneller wachsen. Damit ist letztlich nur eine Prognose sicher: Die Geschwindigkeit künftiger Veränderungen wird uns überraschen, denn der Mensch denkt primär in linearen Entwicklungen.“

DB: Wie funktioniert die computergestützte Textanalyse?

Prof. Dr. Thorsten Sellhorn und Julia Menacher: „Textanalyse ist ein sehr breites Feld und verlangt kontextspezifische Lösungsansätze. Grundsätzlich werden jedoch Computerprogramme verwendet, um Texte zu lesen und hinsichtlich einer Fragestellung automatisiert auszuwerten. Dazu vielleicht einige Beispiele: (1) Um etwa die „Stimmung“ in einem Text zu ermitteln, zählt der Algorithmus bestimmte Begriffe, die mit positiver bzw. negativer Stimmung assoziiert werden. (2) Sollen aus Texten konkrete Inhalte (z. B. Zahlen aus einer Anhang-Tabelle) entnommen werden, sucht das Programm im Textkörper nach einer bestimmten Datenstruktur (z. B. einer Tabelle mit einer bestimmten Überschrift), schneidet diese aus und legt sie systematisch in einer Datenbank ab. (3) Möchte man hingegen etwa alle Zukunftsaussagen eines Textes extrahieren, lassen sich (vordefinierte) Textbausteine automatisiert erkennen, ausschneiden und anschließend analysieren.“

DB: Können Sie ein Praxisbeispiel nennen, wo diese Technik zur Anwendung kommt? Und: Welche Schwierigkeiten sind dabei noch zu lösen?

Prof. Dr. Thorsten Sellhorn und Julia Menacher: „In der Praxis findet sich computergestützte Textanalyse insbesondere bei Nachrichtenagenturen und Informationsanbietern. So verfügt etwa Bloomberg über Algorithmen zur Beobachtung von Twitterbeiträgen und weist seine Kunden darauf hin, wenn über ein Unternehmen plötzlich auffallend viel getweetet wird. Dennoch gibt es Grenzen. Wenn etwa die auszuwertenden Texte unstrukturiert sind, lassen sie sich nicht fehlerfrei in einzelne Sätze und Wörter zerlegen. So erschweren etwa Zahlen die automatische Auswertung von Texten, da Punkte und Kommata dann nicht notwendigerweise Satzzeichen darstellen. Im europäischen Raum gestaltet sich die computergestützte Textanalyse der Offenlegung von Unternehmen außerdem aufgrund des niedrigen Standardisierungsgrades sowie der Verwendung von PDF-Dokumenten besonders schwierig. Schließlich ist die Bedeutung von Wörtern kontextabhängig – z. B. können Twitterbeiträge ironisch oder zynisch formuliert sein. Während ein menschlicher Leser dies womöglich unmittelbar erkennen würde, mag ein Textanalyse-Algorithmus solche Beiträge eventuell falsch interpretieren.“

DB: Welche Chancen bietet die computergestützte Textanalyse für die Adressaten der Finanzberichterstattung?

Prof. Dr. Thorsten Sellhorn und Julia Menacher: „Die computergestützte Textanalyse wird die Informationsverarbeitung am Kapitalmarkt drastisch verändern, denn sie reduziert die Kosten und steigert die Geschwindigkeit. Dies kann die Informationseffizienz des Marktes steigern. Musste man z. B. früher bestimmte Informationen aus Geschäftsberichten händisch sammeln, besteht heute schneller Zugriff auf große Stichproben. Die freigesetzten Ressourcen können dazu genutzt werden, um die Unternehmensanalyse in verschiedene Richtungen zu erweitern. So kann etwa in das Verständnis des Geschäftsmodells und seiner Risiken, in erweiterte Zeitreihenvergleiche und Benchmarkings oder in die Nutzung weiterer Informationskanäle investiert werden. All dies kann zu einer fundierteren Meinungsbildung der Investoren und damit zu informativeren Marktpreisen beitragen. In diesem Sinne könnten die Adressaten der Finanzberichterstattung künftig sogar von der derzeit stark umstrittenen steigenden Informationsflut profitieren und ihre Ressourcen umwidmen.“

DB: Das klingt fantastisch – aber gibt es nicht auch eine Kehrseite? Welche Risiken sehen Sie?

Prof. Dr. Thorsten Sellhorn und Julia Menacher: „Selbstverständlich gehen diese neuen Methoden auch mit Risiken einher. Insbesondere besteht die Gefahr, dass der Informationsvorsprung professioneller Analysten und Anleger in Zukunft weiter ansteigen wird. Denn die Nutzung von Textanalyse-Algorithmen und insbesondere selbstlernender Systeme erfordert hohe Investitionen und benötigt große Datenmengen, auf die nicht jeder Zugriff hat. Zudem besteht die Gefahr von Fehlschlüssen. Weil Textanalyse-Algorithmen große Datenmengen nutzen, generieren sie Durchschnittsaussagen, die auf individuelle Unternehmen nur eingeschränkt übertragbar sind. Nicht zuletzt besteht auch die Gefahr, dass Unternehmen ihre Texte in Kenntnis der Analyse-Algorithmen strategisch aufbauen, um gewünschte Kapitalmarktreaktionen herbeizuführen.“

DB: Vielen Dank für das spannende Interview!

Mehr zu diesem Thema erfahren Sie im Fachbeitrag „Informationsverarbeitung an Finanzmärkten im Umbruch – Zwischen Informationsflut und automatisierter Datenanalyse“ in KOR vom 08.05.2017, Heft 05, Seite 217 – 224 sowie online unter KOR1230604.

 

Das Interview führte Viola C. Didier, RES JURA Redaktionsbüro.


Top