Notebookcheck Logo

Tiny Recursive Model (TRM): Samsungs winziges 7M-Parameter-Modell fordert die Vormachtstellung von Gemini 2.5 Pro heraus

Tiny Recursive Model (TRM): Samsungs winziges 7M-Parameter-Modell fordert die Vormachtstellung von Gemini 2.5 Pro heraus (Bildquelle: GPT-image-1)
Tiny Recursive Model (TRM): Samsungs winziges 7M-Parameter-Modell fordert die Vormachtstellung von Gemini 2.5 Pro heraus (Bildquelle: GPT-image-1)
Das Tiny Recursive Model (TRM), eine Entwicklung des Samsung Advanced Institute of Technology (SAIT), demonstriert eine signifikant höhere Effizienz und Reasoning-Leistung bei logischen Puzzles im Vergleich zu massiven Large Language Models (LLMs) wie Google Gemini 2.5 Pro, obwohl es nur ein winziger Bruchteil von deren Größe aufweist. Diese Mini-AI-Entwicklung stellt das Paradigma der exponentiell wachsenden KI-Modelle fundamental infrage und könnte die Entwicklung von On-Device AI auf Laptops und Smartphones fördern.

Die Entwicklung im Bereich der Künstlichen Intelligenz wurde in den letzten Jahren maßgeblich von der Größe der Modelle bestimmt. Rechenzentren und deren immense Hardware-Anforderungen, insbesondere im Hinblick auf NVIDIA's High-End-GPUs, bildeten die technologische Basis für milliardenschwere Investitionen. Samsung-Forscher Alexia Jolicoeur-Martineau stellt diesen Trend mit dem Tiny Recursive Model (TRM) nun infrage, welches in einem auf arXiv publizierten Paper mit dem Titel "Less is More: Recursive Reasoning with Tiny Networks" vorgestellt wurde. Dieses Modell erreicht demnach mit lediglich sieben Millionen Parametern eine bemerkenswerte Leistung im Bereich des abstrakten und logischen Denkens.

Reduzierter Bedarf an Rechenleistung und Speicherplatz

Im direkten Vergleich zu den Giganten der Branche, deren Parameterzahl in die Hunderte von Milliarden oder gar Billionen geht, repräsentiert das TRM weniger als 0,01 Prozent der Modellgröße. Diese extreme Kompaktheit impliziert einen massiv reduzierten Bedarf an Rechenleistung und Speicherplatz. Die Architektur des Modells erlaubt laut den Forschern ein Training für unter 500 US-Dollar und einer Dauer von nur zwei Tagen auf vier NVIDIA H100 GPUs.

Architektonische Effizienz durch Rekursion

Die signifikante Leistungsfähigkeit des TRM ist nicht auf deren Größe, sondern auf eine innovative rekursive Architektur zurückzuführen. Im Gegensatz zum sequenziellen Denken der meisten Transformer-Architekturen arbeitet das TRM in iterativen Schleifen. Das Modell verwendet eine einzige, zweischichtige Netzwerkeinheit, die ihren eigenen Output zusammen mit einem internen latenten Reasoning-Zustand wieder als Input nutzt.

Dieser Rückkopplungsmechanismus erlaubt dem TRM, seine Logik und die Antwort sukzessive zu verfeinern und zu korrigieren, ein Prozess, der dem menschlichen kognitiven Reasoning ähnlicher ist als die Single-Pass-Generierung großer LLMs. Durch diese Technik simuliert das winzige Modell eine weitaus größere Entscheidungs- und Verfeinerungstiefe, ohne die Speicherkosten des traditionellen Designs zu akkumulieren. Die Methode verzichtet dabei auf die komplexen zweigliedrigen Hierarchien des Vorgängers Hierarchical Reasoning Model (HRM).

Ergebnisse in Logik-Benchmarks

Die Leistung des TRM soll laut dem Forscherteam besonders in Benchmarks bemerkenswert sein, die flüssige Intelligenz und abstraktes Denken messen, Gebiete, in denen selbst die größten LLMs regelmäßig scheitern. In der Abstraction and Reasoning Corpus Benchmark (ARC-AGI-Benchmark), die als anspruchsvoller Test für allgemeine KI-Intelligenz gilt, erreichte das TRM dem Paper nach eine Test-Genauigkeit von circa 45 Prozent auf ARC-AGI-1 und rund 8 Prozent auf dem schwierigeren ARC-AGI-2.

Diese Werte liegen laut den Forschern über den publizierten Ergebnissen von Modellen wie Google Gemini 2.5 Pro und OpenAI's o3-mini-high auf diesen spezifischen Aufgaben. Auch bei spezialisierten logischen Puzzles wie Sudoku-Extreme erreicht das TRM eine Testgenauigkeit von 87,4 Prozent.

Implikationen für die On-Device AI auf mobilen Endgeräten

Die zentrale Bedeutung des TRM liegt in den möglichen weitreichenden Implikationen für die lokale KI-Verarbeitung oder On-Device AI. Ein Modell dieser Effizienz ermöglicht es, komplexe Reasoning-Funktionen auf die Neural Processing Units (NPUs) in Laptops, Tablets und Smartphones auszulagern, anstatt auf Cloud-Server zurückzugreifen.

Dies hätte laut Analyse des Modells zur Folge, dass Latenzzeiten signifikant reduziert und der Datenschutz verbessert würden, da sensible Daten das Gerät nicht mehr verlassen müssten. Darüber hinaus könnte durch die Reduzierung der Rechenlast auf einen Bruchteil eine deutliche Entlastung der Akkulaufzeit und eine Minimierung der Wärmeabgabe im Betrieb erreicht werden, ein kritischer Faktor für die Kühlung und die Leistung moderner, dünner Notebooks.

Fazit und offene Fragen

Das Tiny Recursive Model des Samsung SAIT könnte zeigen, dass der technologische Wettlauf um immer größere LLMs nicht der einzige Weg zu leistungsstarker KI ist. Die Forschung könnte vielmehr die Tür zu einer Ära der spezialisierten, hocheffizienten Mini-AI-Modelle öffnen. Es bleibt abzuwarten, inwiefern Samsung diese Forschung in seine kommerziellen Galaxy AI-Produkte integrieren kann und ob das rekursive Reasoning auch auf komplexere, textbasierte oder multimodale Aufgaben skaliert, die derzeit die Domäne der großen Transformer-Architekturen sind.

Quelle(n)

static version load dynamic
Loading Comments
Diesen Artikel kommentieren / Antworten
Teilen Sie diesen Artikel, um uns zu unterstützen. Jeder Link hilft!
Mail Logo
> Notebook Test, Laptop Test und News > News > Newsarchiv > News 2025-10 > Tiny Recursive Model (TRM): Samsungs winziges 7M-Parameter-Modell fordert die Vormachtstellung von Gemini 2.5 Pro heraus
Autor: Ulrich Mathey, 13.10.2025 (Update: 13.10.2025)