Eine Kollegin wollte etwas über die Gründerin unseres Ordens schreiben. Sie fragte ChatGPT. Sie bekam Antworten. Die Antworten waren plausibel und vollständig erfunden — Daten, Orte, Begegnungen. Auf Korrektur lieferte ChatGPT die nächste Erfindung.
Das ist kein Fehler von ChatGPT. Das ist seine Funktion. ChatGPT ist ein Sprachmodell, kein Lexikon. Es sagt, was wahrscheinlich klingt. Bei bekannten Themen liegt das oft nahe an der Wahrheit. Bei weniger bekannten — und unsere Ordensgeschichte ist für ein US-amerikanisches Modell nicht besonders bekannt — liegt es manchmal weit daneben.
Was tun?
Für faktische Recherche ist nicht ChatGPT das richtige Werkzeug, sondern eine sogenannte Recherche-KI. Sie zeigt Quellen, statt sie zu erfinden. Empfehlenswert sind Perplexity, You.com oder die Web-Recherche-Funktion in ChatGPT selbst (das kleine Globussymbol unter dem Eingabefeld). Diese Werkzeuge suchen erst im Netz und antworten dann mit Quellenangaben. Sie können die Quellen anklicken und prüfen, ob sie wirklich sagen, was die KI behauptet.
Faustregel: Schreiben mit ChatGPT. Recherchieren mit Perplexity. Prüfen mit den eigenen Augen.


