Deshalb lügt der Chatbot

KI und Wahrheit. Warum können wir nicht blind darauf vertrauen, was uns ChatGPT, Gemini, Copilot oder Perplexity sagen? Was ist mit den gefährlichen Deep Fakes? Und kann KI überhaupt neutral sein? Unsere Redakteurin Jana hat mit Harald Sindel gesprochen, Enterprise Information Architect für Advanced Analytics. In seinem Beruf arbeitet er viel mit KI und was er uns dazu sagen kann, hört ihr hier.

Wie kann es sein, dass die KI falsche Informationen gibt?

H. Sindel: „KI ist ja viel mehr als nur die großen Sprachmodelle, über die wir jetzt gerade reden. Bei den großen Sprachmodellen kann es passieren, dass es falsche Informationen ergibt. Das kommt daher, dass so ein Modell auf den Daten trainiert wurde, die zum Beispiel im Internet verfügbar sind, also von Menschen gemacht wurden, die können falsch sein. Das kann auch passieren, dass Informationen schlicht nicht vorhanden sind, dann versucht, so ein Modell das zu kompensieren.

Also ein Stück weit arbeitet so ein Modell auf Basis dessen, was im Internet oder anderen Text-Corpora vorhanden ist und versucht auf Basis von Wahrscheinlichkeiten das nächstbeste Wort vorherzusagen. Das heißt im Prinzip ein stochastischer Papagei.“

Weiß die KI, dass sie in dem Moment Falschinformationen von sich gibt? Oder geht sie davon aus, dass sie vollkommen richtig liegt?

H. Sindel: „Tatsächlich weiß die KI gar nichts. KI hat kein Wissen, auch kein Verständnis, geschweige denn sowas wie eine Seele. Diese großen Sprachmodelle sind reine Automaten. Das heißt ganz konkret, sie haben kein Verständnis für das, was sie da sagen, sondern sie arbeiten auf Basis von Mustererkennung und Wiedererkennung auf Nähe von bestimmten Begriffen, die sie aus dem Internet gelernt haben. Und das machen sie sehr gut. Und in dem Kontext passieren natürlich auch Fehler.“

Gibt es eine Möglichkeit, dieses Halluzinieren der KI zu umgehen?

H. Sindel: „Tatsächlich kann man das steuern. Man kann es natürlich auch ins Negative steuern. Also solche Modelle sind beeinflussbar durch Kontexte, durch Emotionen, durch die Art und Weise, wie man fragt. Man kann es aber auch im positiven beeinflussen, indem man zum Beispiel die Frage so stellt, dass sie möglichst präzise formuliert wird, damit das Modell damit umgehen kann. Vielleicht Fragen nicht zu lange formulieren.

Man kann auch entsprechend Informationen mitgeben in der Fragestellung, bereits Kontext mitgeben. Und man kann ein Modell auch vorneweg ein Stück weit parametrisieren, indem man sagt, okay, wenn ich eine Anfrage stelle, dann möchte ich mehr oder weniger Kreativität haben. Ich möchte mehr oder weniger Genauigkeit haben. Und darüber kann man auch steuern, wie genau oder wie einheitlich ein Modell quasi antwortet.“

Macht es in Bezug auf die falschen Informationen denn einen Unterschied, wenn man eine Bezahlversion einer KI nutzt?

H. Sindel: „Absolut. Die Hersteller geben unterschiedliche Modellqualitäten heraus. Die Bezahlvarianten, die sind in der Regel deutlich besser trainiert, deutlich besser ausgereift, haben auch mehr Informationen.“

KI kann mittlerweile ja täuschend echte Bilder und Videos erzeugen. Kann es sein, dass wir deshalb bald nichts mehr trauen können, was wir sehen?

H. Sindel: „Das ist ein großes Risiko tatsächlich, da es täuschend ähnlich simulieren kann und Dinge erstellen kann, die einer möglichen Wahrheit sehr nahekommen, aber vielleicht doch falsch sind. Insofern ist es ein schwieriger Punkt.

Da kommen die Modellhersteller dahin, dass sie versuchen, bestimmte Informationen einzubauen in die Ergebnisse, dass erkannt werden kann, ob das ein künstlich erzeugter Output ist oder ob es ein Original ist. Google zum Beispiel versucht bei Texten bestimmte Zeichen einzufügen, die nicht sichtbar sind im Text, aber Google erkennt im Text, aha okay, dieser Text ist von mir.“

Wohin meinst du, geht die Reise in Bezug auf KI und Wahrheit? Müssen wir uns daran gewöhnen, dass unsere Wahrheit durch Algorithmen definiert wird?

H. Sindel: „Also wenn man jetzt beispielsweise auch Richtung Gerichtsurteile oder solche Dinge schaut, es wird immer eine Ergänzung bleiben, zumindest auf absehbare Zeit und kann jetzt kein Richter ersetzen. Also ich denke, es ist eine Quelle für Informationen, aber nicht unbedingt ein richtungsweisendes Instrument für Wahrheit oder für Wahrheitsfindung, in dem Bereich.“