Studierende der Universität Cambridge und der Hebräischen Universität in Jerusalem haben ChatGPT mit einer Aufgabe konfrontiert, die bereits vor über 2000 Jahren bekannt war – dem berühmten geometrischen Problem von Sokrates, das als „Verdopplung des Quadrats“ bekannt ist. Bei dieser Aufgabe geht es darum, einen Weg zu finden, um die Fläche eines Quadrats zu verdoppeln, ohne zu wissen, dass die Seitenlängen des neuen Quadrats gleich der Diagonale des ursprünglichen Quadrats sein müssen.
Die Forscher wählten dieses spezifische Problem, da die Lösung nicht offensichtlich ist und abstraktes Denken erfordert. Sie vermuteten, dass die Wahrscheinlichkeit, eine korrekte Antwort in den Trainingsdaten des Modells zu finden, gering ist, sodass das Experiment zeigen könnte, ob die Künstliche Intelligenz in der Lage ist, selbstständig zu „denken“.
Das Ergebnis überraschte das Team: ChatGPT erklärte die Aufgabe mit dem Quadrat korrekt, aber als es gebeten wurde, die Fläche eines Rechtecks zu verdoppeln, erklärte die Künstliche Intelligenz, dass dies geometrisch nicht möglich sei – was natürlich falsch ist. Wie der Forscher Nadav Marko anmerkt, schließt diese Antwort nahezu die Möglichkeit aus, dass ChatGPT einfach eine „einprägsame“ Antwort wiedergegeben hat. Das Modell schien vielmehr improvisiert zu haben, basierend auf früheren logischen Überlegungen, und entwickelte eine eigene Hypothese – ein Verhalten, das dem menschlichen Lernen ähnelt.
Die Autoren der Studie, Marko und Professor Andreas Stylianidis, betonen, dass die Entdeckung neue Erkenntnisse über die Fähigkeit großer Sprachmodelle liefert, „bedingtes“ Denken zu zeigen. Sie nehmen an, dass ChatGPT innerhalb des sogenannten proximalen Entwicklungsbereichs agierte – ein Konzept aus der Pädagogik, welches den Unterschied zwischen dem, was ein Lernender bereits weiß, und dem, was er unter bestimmten Lernbedingungen beherrschen kann, beschreibt.
Die Forscher warnen jedoch davor, die Ergebnisse zu stark zu vereinfachen – ChatGPT denkt nicht wie ein Mensch. Das Experiment zeigt jedoch, dass die Künstliche Intelligenz „lernähnliches Verhalten“ zeigen kann. Die Wissenschaftler planen, die neuen Modelle an einem breiteren Spektrum von mathematischen Aufgaben zu testen und interaktive Systeme zu entwickeln, die ChatGPT mit geometrischen Simulatoren kombinieren, um Schülern zu helfen, komplexe Konzepte zu erkunden und zu verstehen.











