loading

Nachrichten werden geladen...

Warum das Dateiformat über den Erfolg bei ChatGPT entscheidet

Fast jeder zweite Privatanleger nutzt ChatGPT, um sich über Investments zu informieren. Forscher der HHL Leipzig haben untersucht, wie verlässlich die Antworten sind. © pixabay/Sergei Tokmakov
Fast jeder zweite Privatanleger nutzt ChatGPT, um sich über Investments zu informieren. Forscher der HHL Leipzig haben untersucht, wie verlässlich die Antworten sind. © pixabay/Sergei Tokmakov

Forschende der HHL Leipzig zeigen: HTML-Berichte erscheinen dreimal häufiger in ChatGPT als PDFs. Das Dateiformat beeinflusst die Qualität der KI-Antworten erheblich.

Fast jeder zweite Privatanleger nutzt laut einer Studie der University of Washington KI-Tools wie ChatGPT, um sich über Aktien zu informieren oder Investmententscheidungen vorzubereiten. Doch kann man der Künstlichen Intelligenz vertrauen? Forschende der HHL Leipzig Graduate School of Management haben gemeinsam mit Kollegen aus Österreich untersucht, woher ChatGPT seine Informationen bezieht. Das Ergebnis fällt klar aus.

Die Wissenschaftler analysierten von September bis November 2025 über 2.500 Anfragen zu 20 börsennotierten Unternehmen. Ein 20-köpfiges Team stellte Fragen zu Jahresabschlüssen, Gehältern von Managern und Nachhaltigkeitsthemen. Mehr als 24.000 Quellen werteten sie aus. In 85 Prozent der Fälle greift ChatGPT dabei direkt auf unternehmenseigene Inhalte wie Geschäftsberichte zurück. Das zentrale Ergebnis lautet: Das Dateiformat entscheidet. Geschäftsberichte im HTML-Format erscheinen dreimal häufiger in den Antworten von ChatGPT als solche im PDF-Format.

Strukturierte Daten bevorzugt

HTML ist die Programmiersprache, in der Webseiten geschrieben werden. Sie ermöglicht es Computern, Informationen besser zu verarbeiten als das starre PDF-Format. "Große Sprachmodelle wie ChatGPT bevorzugen strukturierte Daten. Sie extrahieren Informationen wesentlich schneller und präziser aus HTML-Codes als aus PDF-Dateien", erklärt Prof. Mag. Monika Kovarova-Simecek von der University of Applied Sciences St. Pölten.

Die Studie zeigt noch etwas Wichtiges. Wenn Unternehmen ihre Berichte als PDF veröffentlichen, weicht ChatGPT in fast einem Viertel der Fälle auf externe Quellen aus. Bei HTML-Berichten passiert das nur in sieben Prozent der Fälle. Das erhöht das Risiko für Fehlinformationen. Je häufiger ChatGPT auf Drittquellen zurückgreift, desto größer wird das Risiko für falsche Informationen.

Qualität hängt vom Format ab

Ein Faktencheck von 200 ChatGPT-Antworten offenbart die Schwachstellen. Nur 63 Prozent der KI-Aussagen sind vollständig korrekt. Ein Viertel bleibt unvollständig, 20 Prozent enthalten falsche Informationen. Der Unterschied zwischen den Formaten ist erheblich. HTML-Berichte führen in 71 Prozent der Fälle zu korrekten Ergebnissen, PDF-Berichte nur in 54 Prozent.

"Umso wichtiger ist es für Unternehmen, der KI keine technischen Hürden in den Weg zu stellen", warnt Eloy Barrantes von der Wiener Beratungsagentur nexxar. ChatGPT greife mangels maschinenlesbarer Daten auf externe Quellen aus, was das Risiko für Desinformation erhöhe. Prof. Dr. Henning Zülch von der HHL Leipzig fasst zusammen: "Wer seine Daten KI-gerecht aufbereitet, bestimmt mit, was potenzielle Investoren über sie lesen."


Weitere Informationen im Studienbericht.
Informationen zur Untersuchung der University of Washington.

METIS