Die Bedeutung der richtigen Architektur für Lernprozesse in visuellen KI-Systemen

Neue Forschungsergebnisse der Johns Hopkins University zeigen, dass künstliche Intelligenzsysteme, die sich an biologisch inspirierten Strukturen orientieren, bereits vor jeglichem Training Aktivitätsmuster erzeugen können, die denen im menschlichen Gehirn ähneln. Diese Studie, die in der Fachzeitschrift Nature Machine Intelligence veröffentlicht wurde, legt nahe, dass das Design eines KI-Modells möglicherweise wichtiger ist als die umfangreichen Deep-Learning-Prozesse, die oft Monate in Anspruch nehmen, enorme Energiemengen erfordern und Milliarden von Dollar kosten.

„Der derzeitige Trend im Bereich der KI besteht darin, eine große Menge an Daten auf Modelle zu werfen und Rechenressourcen im Umfang kleiner Städte aufzubauen. Dies erfordert Ausgaben in Höhe von Hunderten von Milliarden Dollar. Währenddessen lernen Menschen, mit sehr wenigen Daten zu sehen“, erklärte der Hauptautor Mick Bonner, Assistenzprofessor für Kognitionswissenschaft an der Johns Hopkins University. „Die Evolution könnte sich aus gutem Grund für dieses Design entschieden haben. Unsere Arbeit legt nahe, dass architektonische Designs, die mehr dem Gehirn nachempfunden sind, den KI-Systemen einen sehr vorteilhaften Ausgangspunkt bieten.“

Untersuchung der Netzwerkdesigns

Bonner und seine Kollegen analysierten drei Hauptkategorien von Netzwerkdesigns, die häufig beim Bau moderner KI-Systeme verwendet werden: Transformer, vollvernetzte Netzwerke und Faltungsnetzwerke (Convolutional Networks).

Testen von KI-Architekturen anhand von Gehirnaktivität

Die Wissenschaftler modifizierten wiederholt die drei Blaupausen, also die KI-Architekturen, um Dutzende von einzigartigen künstlichen neuronalen Netzwerken zu erstellen. Diese neuen und nicht trainierten KI-Netzwerke wurden dann Bildern von Objekten, Personen und Tieren ausgesetzt, und die Reaktionen der Modelle wurden mit der Gehirnaktivität von Menschen und Primaten verglichen, die denselben Bildern ausgesetzt waren.

Als Transformer und vollvernetzte Netzwerke modifiziert wurden, indem ihnen viele künstliche Neuronen hinzugefügt wurden, zeigten sie wenig Veränderung. Eine ähnliche Anpassung bei Faltungsnetzwerken hingegen ermöglichte es den Forschern, Aktivitätsmuster in der KI zu erzeugen, die die Muster im menschlichen Gehirn besser simulierten.

Architektur spielt eine unerwartet große Rolle

Die untrainierten Faltungsnetzwerke rivalisierten konventionelle KI-Systeme, die in der Regel Millionen oder Milliarden von Bildern während des Trainings ausgesetzt werden, so die Forscher. Dies deutet darauf hin, dass die Architektur eine wichtigere Rolle spielt, als die Forscher bisher erkannten.

„Wenn das Training mit massiven Daten wirklich der entscheidende Faktor ist, dann sollte es unmöglich sein, allein durch architektonische Modifikationen zu einem gehirnähnlichen KI-System zu gelangen“, sagte Bonner. „Das bedeutet, dass wir möglicherweise durch den Start mit dem richtigen Blueprint und durch die Einbeziehung anderer biologischer Erkenntnisse das Lernen in KI-Systemen dramatisch beschleunigen können.“

Als Nächstes arbeiten die Forscher an der Entwicklung einfacher Lernalgorithmen, die sich an biologischen Modellen orientieren und eine neue Deep-Learning-Plattform informieren könnten.

Referenz: „Convolutional architectures are cortex-aligned de novo“ von Atlas Kazemian, Eric Elmoznino und Michael F. Bonner, 13. November 2025, Nature Machine Intelligence.

DOI: 10.1038/s42256-025-01142-3