Notebookcheck Logo

Kleine Helfer, große Leistung: DisCIPL vereint Sprachmodelle für effizientere Problemlösung

Kleine Helfer für KI (Sympolbild Stable Diffusion)
Kleine Helfer für KI (Sympolbild Stable Diffusion)
Forscher vom MIT und der Universität Yale zeigen mit DisCIPL, dass das Big-Little-Prinzip auch bei KIs funktioniert. Hier leitet ein großes Modell viele kleine KI-Arbeiter an. Mit besseren Ergebnissen und geringeren Energiekosten als bei vielen großen LLMs.

Sprachmodelle (LMs) werden immer besser in Aufgaben wie Bildgenerierung oder Quizfragen. Doch komplexe Denkaufgaben stellen sie weiterhin vor Probleme. Als Beispiel dafür nennen die MIT-Forscher Sudoku. Große LLMs sind meist problemlos dazu in der Lage, eine Sudokulösung zu überprüfen, können aber selbst meist keine eigene Lösung entwickeln.

Forscher des MIT und der Universität Yale haben nun eine neue Methode namens DisCIPL entwickelt, die kleine Sprachmodelle dazu bringt, zusammenzuarbeiten und so selbst anspruchsvolle Aufgaben zu lösen. Das Besondere daran: Ein größeres Modell übernimmt die Planung, während kleinere "Follower"-Modelle die eigentliche Arbeit erledigen. Dieser Ansatz ermöglicht es DisCIPL, präzisere Antworten als führende Modelle wie GPT-4o zu liefern – und das mit deutlich geringerem Rechenaufwand. Die Kommunikation zwischen den Modellen erfolgt über LLaMPPL, eine Art Programmiersprache für Sprachmodelle, die es erlaubt, spezifische Regeln festzulegen.

In Tests zeigte sich, dass DisCIPL nicht nur in der Lage ist, Texte nach vorgegebenen Vorgaben zu schreiben (zum Beispiel Sätze mit einer bestimmten Anzahl von Wörtern und festgelegten Schlüsselwörtern), sondern auch bei realen Aufgaben wie der Erstellung von Einkaufslisten, Reiseplänen oder sogar Förderanträgen überzeugt. Dabei erzielte das System nicht nur ähnliche Ergebnisse wie hochkarätige Reasoning-Systeme wie o1, sondern war gleichzeitig deutlich kostengünstiger – bis zu 80,2 Prozent weniger Rechenkosten.

Die Effizienzsteigerung liegt vor allem an der Nutzung kleinerer Llama-Modelle als "Follower", die im Vergleich zu anderen Modellen um ein Vielfaches günstiger sind. Das bedeutet, dass DisCIPL sich leicht skalieren lässt und viele Modelle parallel betrieben werden können. Die Forscher sehen großes Potenzial für die Zukunft, beispielsweise in mathematischen Aufgaben oder bei der Berücksichtigung von vagen Nutzerpräferenzen. Kurz gesagt: DisCIPL demonstriert, dass auch kleine Sprachmodelle mit der richtigen Strategie Großes leisten können – und das mit deutlich geringerem Energieverbrauch. Dafür verantwortlich sind vor allem kleine Spezialistenmodelle, die sich um die einzelnen Teilgebiete der Aufgaben kümmern. So ist kein Universalgenie mit einer riesigen Datenmenge notwendig.

static version load dynamic
Loading Comments
Diesen Artikel kommentieren / Antworten
Teilen Sie diesen Artikel, um uns zu unterstützen. Jeder Link hilft!
Mail Logo
> Notebook Test, Laptop Test und News > News > Newsarchiv > News 2025-12 > Kleine Helfer, große Leistung: DisCIPL vereint Sprachmodelle für effizientere Problemlösung
Autor: Marc Herter, 14.12.2025 (Update: 14.12.2025)