Skip to main content
Allgemein

Mini-Modell schlägt Giganten: Wie 7 Millionen Parameter die KI-Forschung erschüttern

Ein winziges KI-Modell aus Kanada sorgt für Furore: Das „Tiny Recursive Model“ (TRM) wurde von der Forscherin Alexia Jolicoeur-Martineau am Samsung AI Lab (SAIL) in Montréal entwickelt – und bringt mit nur sieben Millionen Parametern die Grundlagen der KI-Forschung ins Wanken. In Benchmarks wie ARC-AGI schlägt es Modelle wie Deepseek R1, das mit 671 Milliarden Parametern über 96.000-mal größer ist. Der Schlüssel: ein rekursiver, selbstverbessernder Architekturansatz, der auf Effizienz statt Größe setzt.

TRM basiert auf einem vereinfachten Ableger des sogenannten „Hierarchical Reasoning Model“ (HRM), das sich am menschlichen Denken orientiert. Im Gegensatz zu klassischen Sprachmodellen arbeitet TRM nicht mit Sprache, sondern löst visuelle, strukturierte Puzzles wie Sudoku oder Labyrinthe. Es verwendet ein einzelnes neuronales Netz, das seine Antworten in bis zu 16 Iterationen verfeinert – eine Denkweise, die der menschlichen Problemverarbeitung ähnelt. Damit zeigt TRM, dass systematisches, iteratives Denken effizienter sein kann als gigantische Parameterberge.

Besonders bemerkenswert: Trotz seiner geringen Größe (nur 28 MB) ist TRM erstaunlich leistungsfähig. Das Modell demonstriert, dass gute Architektur und clevere Trainingsmethoden mitunter entscheidender sind als massive Rechenressourcen. Überfitting wird durch die geringe Komplexität minimiert, Generalisierungsfähigkeit steigt. Auch das deutlich größere HRM (27 Millionen Parameter) wurde bereits geschlagen – von TRM-Att, einem noch kompakteren Ableger.

Für Europa könnte dieser Trend zur „Small AI“ eine große Chance bedeuten. Kleine, spezialisierte Modelle lassen sich besser lokal betreiben, sind datenschutzfreundlicher und oft günstiger. Sie könnten etwa in der Industrie für spezifische Planungs- oder Diagnoseaufgaben genutzt werden – vorausgesetzt, die Forschung wird aktiv verfolgt und adaptiert.

Der Erfolg von TRM erinnert eindringlich daran: Fortschritt entsteht nicht nur durch Expansion, sondern auch durch kluges Redesign. Dass diese Revolution von einer einzelnen Forscherin angestoßen wurde, ist eine inspirierende Fußnote – und ein Signal, wie viel auch Einzelne in der KI-Forschung noch bewegen können.

Quelle:
FAZ – Kleinstes Sprachmodell: Größe spielt keine Rolle – KI-Welt steht Kopf

Leave a Reply

Diese Website verwendet Akismet, um Spam zu reduzieren. Erfahre, wie deine Kommentardaten verarbeitet werden.