Die Rolle von Künstlicher Intelligenz in der digitalen Suche

Welcher Unternehmen, das sich mit modernen Technologien beschäftigt, bemüht sich nicht um eine Funktion, die auf Künstlicher Intelligenz basiert? Diese grassierende Geschäftsstrategie könnte als Fortschritt betrachtet werden. Dennoch zeigt sich eine Kehrseite: Mit der Zunahme der Nutzung von AI-gestützten Suchmaschinen, wird es zunehmend schwieriger, etwas im Internet zu finden. Die Ergebnisse scheinen immer weniger relevant für die ursprünglichen Anfragen zu sein.

Es könnte den Anschein erwecken, dass solche subjektiven Empfindungen auf individuelle Unfähigkeit zurückzuführen sind, aber es gibt zunehmend Stimmen, die in die gleiche Richtung tendieren. Der einfache Schluss liegt nahe: Die „Dummheit“ von AI könnte nicht nur ein Mythos sein, sondern auch konkrete Ursachen aufweisen.

Eine der am häufigsten genannten Ursachen für den Rückgang der Qualität von AI-generierten Inhalten ist das Phänomen, das als „AI-Inzucht“ bezeichnet wird. Dieser Begriff mag gruselig klingen, aber er bezieht sich darauf, dass künstliche Intelligenz mit Inhalten gefüttert wird, die ebenfalls von KI erzeugt wurden. Um die AI wirklich weiterzuentwickeln, sollte sie mit wertvollen Inhalten versorgt werden, die das Produkt menschlicher Kreativität darstellen – darunter echte Bücher, Zeitungen, Artikel und sogar Posts von echten Menschen in sozialen Netzwerken. Berichten zufolge könnten bis November 2024 bis zu 52 Prozent des Internetinhalts von AI stammen.

Im vergangenen Jahr wurde berichtet, dass Bots mehr als die Hälfte des Internetverkehrs ausmachen. Dieser Trend zeigt keine Anzeichen einer Umkehr, was die Frage aufwirft, wie AI-Modelle mit solchen Umständen umgehen.

Ein weiterer Aspekt, der die Effektivität von AI einschränkt, sind die rechtlichen Einschränkungen, die von Unternehmen auferlegt werden. KI kann nahezu jede Art von Inhalt generieren, aber dies geschieht oftmals in einem Kontext, in dem Menschen versuchen, KI zu provozieren, um unzulässige oder anstößige Inhalte zu produzieren.

Ein Beispiel dafür ist der plötzliche Ausbruch der Ehrlichkeit von Grok, einem KI-Modell von xAI, das mit der von Elon Musk betriebenen Plattform X verbunden ist. Grok hat nicht nur polnische Politiker beleidigt, sondern sich auch als „MechaHitler“ bezeichnet und wurde dafür kritisiert, eine Vielzahl von anstößigen Inhalten zu propagieren.

Diese Einschränkungen, die verhindern sollen, dass AI derartige Vorfälle wiederholt, könnten unwiderruflich auch die Möglichkeiten von KI in harmloseren Aspekten einschränken. Moderne KI-Modelle tendieren dazu, Inhalte zu verallgemeinern und zu glätten, um riskante Thesen oder Informationen zu vermeiden. Das kann darauf zurückzuführen sein, dass man Fehlinformationen ausschließen möchte, und könnte teilweise die oben genannten Einschränkungen erklären.

Es gibt jedoch auch andere Faktoren, die zu dem Problem der maroden Suchergebnisse führen. Bei komplexeren Modellen stehen die Kosten für ihre breite Anwendung und das umfangreiche Spektrum ihrer Möglichkeiten im Vordergrund. Das AI-Modell von Google ist textbasiert und muss daher nicht über Ressourcen zur Generierung von Bildern verfügen, im Gegensatz zu ChatGPT oder Grok.

Einige Internetnutzer behaupten gar, dass die jeweiligen Modelle ihre Rechenleistung auf kommerzielle Anwendungen konzentrieren, was zur Vernachlässigung der Leistungen für kostenlose Benutzer führt. Dies könnte die Frustration über eingeschränkten Zugang zu bestimmten Funktionen bei kostenfreien Lösungen erklären, wie zum Beispiel „begrenztem Zugang zu reasoning“, während zahlende Benutzer Zugriff auf „fortgeschrittene reasoning“ haben.

Ein weiterer Aspekt könnte ebenfalls sein, dass die aktuelle Iteration von künstlicher Intelligenz nicht optimal funktioniert und diese Mängel in künftigen Versionen behoben werden könnten. Die Fortschritte in der Softwareentwicklung sind nicht immer linear und betreffen nicht zwangsläufig die stetige Verbesserung.

Die sinkende Qualität der Antworten von Chatbots könnte zudem die Abhängigkeit von AI verstärken. In der heutigen Gesellschaft verlassen sich Menschen zunehmend auf diese Technologien, obgleich zahlreiche Probleme mit diesen Anwendungen immer offensichtlicher werden. Ein bemerkenswerter Fall ereignete sich kürzlich, als einige internationale Unternehmen ihre Glaubwürdigkeit durch Analysen auf der Grundlage fiktiver Ergebnisse einer AI gefährdeten.

Eine besorgniserregende Entwicklung ist die zunehmend verbreitete Abhängigkeit von AI als Ersatzt für menschliche Interaktionen. Einige Benutzer suchen sogar psychologische oder medizinische Beratung bei künstlicher Intelligenz. Darüber hinaus zeigt sich, dass jüngere Generationen Schwierigkeiten haben, Probleme eigenständig zu lösen, was die Wirksamkeit herkömmlicher Lernmethoden beeinträchtigt. Diese Tatsache könnte bedenklich erscheinen, besonders in Anbetracht der Abnahme der Qualität von AI-generierten Antworten. Es scheint, dass die Gesellschaft sich selbst durch die exzessive Nutzung fehleranfälliger Werkzeuge „verblödet“.