Die Natur der Künstlichen Intelligenz: Ein Vergleich mit Frankensteins Monster

Dr. Bartosz Naskręcki, ein Mathematiker von der Adam-Mickiewicz-Universität in Posen und der einzige Pole im Team, das die Frontier Math-Tests entwickelt hat, äußert sich in der Sendung „Didaskalia“ zur heutigen Künstlichen Intelligenz. Er vergleicht die KI-Modelle mit dem Monster von Frankenstein und gibt Ratschläge, wie man intellektuelle Faulheit im Umgang mit Algorithmen vermeiden kann.

Die Fehlannahme über Künstliche Intelligenz

Im Gespräch mit Patrycjusz Wyżgą beleuchtet Dr. Naskręcki, wie moderne Sprachmodelle erschaffen und betrieben werden. Er kritisiert die weitverbreitete Annahme, dass neuronale Netzwerke digitale Spiegelbilder des menschlichen Gehirns sind. Nach seiner Meinung ist dies ein Irrtum.

Die fehlende Erklärbarkeit der KI

Der Wissenschaftler hebt hervor, dass es in der Künstlichen Intelligenz an sogenannter Erklärbarkeit mangelt. Zwar sind die Systeme funktional, jedoch bleibt oft unklar, wie sie zu ihren Schlussfolgerungen gelangen. Dr. Naskręcki veranschaulicht dies mit einer eindringlichen Metapher, die den Prozess der Modellerstellung als Zusammenfügen verschiedener Elemente beschreibt, wodurch ein gewisses Maß an Willkür entsteht.

Ein Monster aus verschiedenen Komponenten

„Ich stelle mir vor, dass die Systeme, die wir als Künstliche Intelligenz bezeichnen, auf der Überlegung beruhen, dass vor einigen Jahrzehnten jemand bemerkte, die Funktionsweise des Gehirns beruht auf der Signalübertragung zwischen Neuronen. Daher entschlossen sie sich, eine vereinfachte Version dieses Gehirns zu erstellen“, erklärt er.

Die Komplexität des menschlichen Gehirns

Dr. Naskręcki betont, dass die Neurowissenschaften erhebliche Fortschritte gemacht haben, während die Informatik aufgrund veralteter Konzepte ins Stocken geraten ist. Er merkt an, dass viele Wissenschaftler inzwischen wissen, dass das Gehirn wesentlich komplexer funktioniert als ursprünglich angenommen.

Frankenstein und die Technologie

Er vergleicht die Modelle, die wir entwickelt haben, mit einem Frankenstein-Monster: „Wir haben etwas erschaffen, das funktioniert, aber ob es in allen Situationen gut funktioniert, wissen wir nicht“, fasst der Experte zusammen.

Die Gefahren des technologischen Denkens

Der Mathematiker warnt vor der Überzeugung, dass das alleinige Skalieren von Modellen – also das Hinzufügen von Größe und Rechenleistung – die Probleme der Verständlichkeit und Zuverlässigkeit lösen wird. Dieses Phänomen vergleicht er mit dem Wunschdenken, welches in der Anthropologie als Cargo-Kult bekannt ist.

Wunschdenken in der modernen Technologie

„Ich mache mir Sorgen, aus mehreren Gründen. Es ist einfach, zu vergessen, dass wenn etwas in einem bestimmten Maßstab funktioniert, größere Modelle nicht zwangsläufig auch besser funktionieren werden. Dies ist eine Form des Wunschdenkens, das dem Cargo-Kult ähnelt“, äußert Naskręcki.

Herausforderungen für Künstliche Intelligenz

Als einziger Pole und einer von vier Europäern, der an der Entwicklung von Frontier Math beteiligt ist, stellt Dr. Naskręcki die Grenzen des KI-Verständnisses auf die Probe. Frontier Math ist ein Set von Aufgaben, das darauf abzielt, die Denkfähigkeiten der KI zu testen. Diese Tests bestehen aus Problemen, deren Lösungen nicht einfach im Internet gefunden werden können.

Die Benchmark-Herausforderungen

„Es gibt vier solche Benchmarks. Die ersten drei haben die Modelle bereits ganz gut bewältigt, während der vierte, der im Mai entwickelt wurde, die neueste Herausforderung darstellt. Es gibt 50 Aufgaben, deren Lösungen jedoch nicht veröffentlicht sind“, erklärt der Gast der Sendung.

Das Browsen des Internets ausschließen

Das größte Problem beim Erstellen des Tests liegt darin, das Internet zu überlisten. Sprachmodelle lernen auf Basis von Milliarden von Textseiten im Netz. Wäre die Aufgabe auf einem bekannten wissenschaftlichen Problem basierend, könnte die KI einfach auf bekannte Lösungen zurückgreifen.

Der Wandel in der Forschung

Die Entwicklung von Modellen, die mathematische Theoreme beweisen können, verändert den Charakter der Forschung. Dr. Naskręcki prognostiziert, dass die Rolle von Wissenschaftlern sich von reinen Rechnungslegenden zu visionären Aufsehern wandeln wird, die die Arbeit von Maschinen überwachen.

Architekten der Zukunft

„Wir müssen nicht mehr Ziegel für Ziegel bauen. Wir können eher Architekten als Bauarbeiter sein. Vielleicht werden wir bald nicht mehr selbst die Ziegel legen müssen“, richtet er einen Blick in die Zukunft.

Die Gefahren des geistigen Outsourcings

Der Experte sieht jedoch erhebliche Risiken, wenn der Zugang zu „intelligenten“ Werkzeugen zu einfach wird. Ein übermäßiges Auslagern einfacher kognitiver Aufgaben an die KI könnte zu einem Verlust wichtiger Fähigkeiten führen.

Die Flucht vor dem Lernen

„Wenn wir alles an Systeme delegieren, könnten wir dumm werden und uns aus dem Wettbewerb zurückziehen. Dann könnten wir das Outsourcing des Denkens verlieren“, warnt Naskręcki.

Gegenprojekte im Umgang mit KI

Um nicht in die Falle der Bequemlichkeit und der Informationsblase zu geraten, setzt Dr. Naskręcki eine einfache Regel um: Er deaktiviert die Funktion zur Speicherung des Kontextes in Chats mit AI. Dadurch wird der Zusammenwuchs der Informationen vermieden und der Benutzer dazu gezwungen, bei jeder Anfrage mehr intellektuelle Anstrengungen zu leisten.

Neue Wege im Denken

„Ich habe im Mai experimentiert, um die Modelle im Hinblick auf Frontier Maths zu testen. Jemand riet mir, die Verlaufshistorie in diesen Systemen auszuschalten“, berichtet der Mathematiker.

„Es ist ein bisschen so wie beim Gehen. Ja, manchmal nehme ich den Bus, aber manchmal ist es vielleicht sinnvoll, einen Spaziergang zu machen oder ein gutes Buch zu lesen, auch wenn ich eine Zusammenfassung bekomme“, schließt Naskręcki und fordert dazu auf, alternative Wege zu gehen, anstatt den von den Algorithmen vorgeschlagenen zu folgen.