Das neueste Modell von ChatGPT, GPT-5.2, hat in letzter Zeit Aufsehen erregt, da es Daten aus Grokipedia bezieht, einer vom xAI entwickelten, vollständig KI-generierten Wikipedia-Alternative. Laut einem Bericht von The Guardian nutzt das KI-Modell manchmal Informationen aus dieser Enzyklopädie für weniger verbreitete Themen, wie die iranische Politik oder Einzelheiten über den britischen Historiker Sir Richard Evans.
Bereits vor einigen Jahren wurden in der KI-Ausbildung Bedenken geäußert, da Experten argumentierten, dass das Training von KI mit KI-generierten Daten die Qualität mindern könnte. Dies könnte zu einem Phänomen führen, das als „Modellzusammenbruch“ bekannt ist. Obwohl die Verwendung von KI-generierten Daten für Zitate von der Nutzung zu Trainingszwecken zu unterscheiden ist, birgt es dennoch Risiken für Menschen, die auf KI für Recherchen angewiesen sind.
Die Risiken der „Halluzination“ bei KI-Modellen
Ein zentrales Problem besteht darin, dass KI-Modelle selbst dazu neigen, falsche Informationen zu erzeugen. Beispielsweise unternahm Anthropic den Versuch, ein Geschäft mit seiner KI „Claudius“ zu führen, wobei die KI mehrmals halluzinierte und sogar behauptete, sie würde Getränke persönlich ausliefern. Der CEO von Nvidia, Jensen Huang, erklärte 2024, dass die Lösung dieses Problems noch „einige Jahre entfernt“ ist und wesentlich mehr Rechenleistung benötigt. Zudem vertrauen viele Nutzer darauf, dass ChatGPT und andere LLMs präzise Informationen liefern, wobei nur wenige die tatsächlichen Quellen überprüfen, die für die Beantwortung einer bestimmten Frage genutzt werden.
Die Herausforderung der gegenständlichen Zitation
Die Wiederholung von Grokipedia-Inhalten durch ChatGPT kann problematisch sein, da Grokipedia nicht direkt von Menschen bearbeitet wird. Stattdessen wird der Inhalt ausschließlich von KIs erzeugt, und Menschen können nur Änderungen daran vorschlagen, jedoch keine Artikel direkt schreiben oder bearbeiten. Die Verwendung einer anderen KI als Quelle erzeugt einen rekursiven Loop und könnte dazu führen, dass LLMs unbestätigte Inhalte von einander zitieren. Dies ist vergleichbar mit dem Verbreiten von Gerüchten unter Menschen, bei dem die Aussage „jemand hat es gesagt“ als Quelle dient.
Die Illusion der Wahrheit
Dieser Teufelskreis führt zu einem Effekt, der als Illusorische-Wahrheit-Effekt bekannt ist, bei dem falsche Informationen von vielen als korrekt angesehen werden, obwohl gegenteilige Daten existieren. Dies geschieht häufig, weil die Informationen von so vielen Personen wiederholt werden. Die menschliche Gesellschaft war in ähnlicher Weise mit Mythen und Legenden durchzogen, die über viele Generationen hinweg weitergegeben wurden.
Mit KIs, die riesige Datenmengen in einem viel schnelleren Tempo als Menschen durchforsten, besteht jedoch die Gefahr, dass die Nutzung von KI-Quellen die Verbreitung von digitalem Folklore mit jeder Eingabe in KI-LLMs beschleunigt.
Missbrauch von KIs durch Propagandanetzwerke
Besorgniserregend ist, dass bereits verschiedene Parteien diese Gegebenheit ausnutzen. Berichten zufolge gibt es „LLM Grooming“, wobei das Guardian berichtet, dass einige Propagandanetzwerke „massive Mengen an Fehlinformationen produzieren, um KI-Modelle mit Lügen zu füttern.“ Dies hat insbesondere in den USA Besorgnis ausgelöst. Beispielsweise soll Googles Gemini 2024 die offizielle Linie der Kommunistischen Partei Chinas wiederholt haben. Dies scheint momentan angesprochen worden zu sein, doch wenn LLMs anfangen, andere KI-generierte, ungeprüfte Quellen zu zitieren, entsteht ein neues Risiko, das es zu beachten gilt.
Jowi Morales ist ein Technikbegeisterter mit jahrelanger Erfahrung in der Branche. Er hat seit 2021 für mehrere Technikpublikationen geschrieben, wobei sein Interesse vor allem moderner Hardware und Unterhaltungselektronik gilt.











