Schilf auf die Hintergründe der Diskussion um AI-Modelle in Südkorea

Der angesehene AI-Experte Professor Cho Kyung-hyun von der New York University hat seine Enttäuschung über die Ergebnisse der ersten Phase des staatlich geführten Projekts namens „독자 AI 파운데이션 모델“ (Dokpa Model) geäußert. Dies geschah nach Kontroversen um die Nutzung ausländischer Open-Source-Technologie und der damit verbundenen Diskussion über die „Unabhängigkeit des Modells“. Einige Stimmen forderten, die zukünftigen Bewertungskriterien strenger zu gestalten, was von Cho jedoch abgelehnt wurde.

Am 18. des Monats berichtete die Branche, dass Professor Cho am 16. in einem Facebook-Beitrag bedauert hat, dass Naver Cloud aufgrund der Nutzung vortrainierter Bild- und Audio-Encoder disqualifiziert wurde.

Bereits am 15. gab das Ministerium für Wissenschaft und Technologie die Ergebnisse der ersten Bewertung des Dokpa-Projekts bekannt. Basierend auf den Entwicklungen von fünf Elite-Teams über einen Zeitraum von sechs Monaten wurden Benchmark-Tests sowie Bewertungen von Experten und Nutzern durchgeführt. Letztlich erreichten die Teams von LG AI Research, SK Telecom und Upstage die nächste Phase, während Naver Cloud und das NC AI-Team ausschieden.

Professor Cho ist nicht nur ein Mitglied des Aufsichtsrats des erfolgreichen Teams Upstage, sondern auch ein Berater für Ausbildungstechniken großer Sprachmodelle (LLM). In seinem Beitrag betonte er, dass der Kernwert der AI nicht im „Schaffen aus Nichts“ liege, sondern in der „integrierenden Intelligenz“.

Er erklärte: „Die ‚Intelligenz‘ von AI besteht darin, dass sie verschiedene Beobachtungen wie Tokens, Bilder und Audio-Snippets nahtlos durch hochleistungsfähige neuronale Netzmodelle integriert. Der Sensorkodeur ist ähnlich wie eine Token-Embedding-Schicht, und es ist erstaunlich, dass die Entscheidung, dies als Grund für die Disqualifikation anzuführen, weil es nicht ‚von Grund auf‘ entwickelt wurde, getroffen wurde.“

Besonders stellte er sich gegen die Forderung, die Bewertungskriterien detaillierter und strenger zu definieren. Professor Cho äußerte Bedenken gegenüber einem Ansatz, bei dem multiple-choice-Testmethoden wichtiger erscheinen, als das tatsächliche Können der Prüfenden zu messen und stattdessen nur eine Einzelzahl zu produzieren. „Die Bewertungsmethodik muss flexibel bleiben und bereit sein, sich schnell verändernden Technologien anzupassen“, fügte er hinzu.

In weiteren relevanten Berichten hieß es, dass der nationale AI-Wettbewerb sich in eine anspruchsvolle Dreikampf-Situation verwandelt hat, nachdem Naver und NC ausgeschieden sind. Dies hat auch internationale Aufmerksamkeit erregt.

Professor Cho würdigte die Leistungen der verbleibenden Elite-Teams. „Auch angesichts der inneren Widerstände und der Kritik von Personen, die wenig technisches Verständnis haben, zeigen die Teams ein großes Potenzial, große Modelle direkt zu trainieren, was mich sehr erfreut“, bemerkte er. Zudem bekundete er seine Dankbarkeit gegenüber nicht beteiligten Unternehmen wie Trillion Labs und Kakao für deren technologische Fortschritte.