Fast jeder zweite Privatanleger nutzt laut einer Studie der University of Washington KI-Tools wie ChatGPT, um sich über Aktien zu informieren oder Investmententscheidungen vorzubereiten. Doch kann man der Künstlichen Intelligenz vertrauen? Forschende der HHL Leipzig Graduate School of Management haben gemeinsam mit Kollegen aus Österreich untersucht, woher ChatGPT seine Informationen bezieht. Das Ergebnis fällt klar aus.
Die Wissenschaftler analysierten von September bis November 2025 über 2.500 Anfragen zu 20 börsennotierten Unternehmen. Ein 20-köpfiges Team stellte Fragen zu Jahresabschlüssen, Gehältern von Managern und Nachhaltigkeitsthemen. Mehr als 24.000 Quellen werteten sie aus. In 85 Prozent der Fälle greift ChatGPT dabei direkt auf unternehmenseigene Inhalte wie Geschäftsberichte zurück. Das zentrale Ergebnis lautet: Das Dateiformat entscheidet. Geschäftsberichte im HTML-Format erscheinen dreimal häufiger in den Antworten von ChatGPT als solche im PDF-Format.
Qualität hängt vom Format ab
Ein Faktencheck von 200 ChatGPT-Antworten offenbart die Schwachstellen. Nur 63 Prozent der KI-Aussagen sind vollständig korrekt. Ein Viertel bleibt unvollständig, 20 Prozent enthalten falsche Informationen. Der Unterschied zwischen den Formaten ist erheblich. HTML-Berichte führen in 71 Prozent der Fälle zu korrekten Ergebnissen, PDF-Berichte nur in 54 Prozent.
"Umso wichtiger ist es für Unternehmen, der KI keine technischen Hürden in den Weg zu stellen", warnt Eloy Barrantes von der Wiener Beratungsagentur nexxar. ChatGPT greife mangels maschinenlesbarer Daten auf externe Quellen aus, was das Risiko für Desinformation erhöhe. Prof. Dr. Henning Zülch von der HHL Leipzig fasst zusammen: "Wer seine Daten KI-gerecht aufbereitet, bestimmt mit, was potenzielle Investoren über sie lesen."
Weitere Informationen im Studienbericht.
Informationen zur Untersuchung der University of Washington.