Notebookcheck Logo

Neues Open-Source-KI-Tool ermöglicht deutlich längere und konsistentere Videogenerierung

Ein KI-generiertes Bild einer Giraffe.
ⓘ Gemini
Ein KI-generiertes Bild einer Giraffe.
Forscher der Technischen Hochschule Lausanne haben ein neues System namens Stable Video Infinity (SVI) entwickelt, um das Driften in Modellen zur Videogenerierung zu bekämpfen.

Wer sich mit KI-Modellen zu Videogenerierung auseinandersetzt, dürfte schnell feststellen: Sie sind fast immer auf kurze Clips beschränkt – meist zwischen fünf und 20 Sekunden. Der Grund dafür ist ein Phänomen namens „Drift“. Dabei verlieren Szenen und Figuren von Bild zu Bild zunehmend ihre charakteristischen Merkmale, sodass das Ergebnis mit der Zeit immer inkohärenter wird.

Um dieses Problem anzugehen, haben Forschende aus dem Visual Intelligence for Transportation (VITA)-Labor der Technischen Hoschule Lausanne (École polytechnique fédérale de Lausanne) eine neuartige Trainingsmethode entwickelt, die sie „Retraining by Error Recycling“ nennen. Anstatt die bei der Generierung auftretenden Glitches und Verzerrungen zu verwerfen, werden diese bewusst wieder in das Modell zurückgespeist.

Professor Alexandre Alahi vergleicht den Ansatz damit, „einen Piloten bei Turbulenzen anstatt bei strahlend blauem Himmel zu trainieren“. Indem die KI aus ihren eigenen Fehlern lernt, wird sie robust genug, sich zu stabilisieren, wenn Fehler auftreten – anstatt in Zufälligkeit abzudriften.

Diese Methode bildet die Grundlage des neuen Systems Stable Video Infinity (SVI). Während aktuelle Modelle oft schon nach etwa 30 Sekunden an ihre Grenzen stoßen, kann SVI kohärente, hochwertige Videos erzeugen, die mehrere Minuten oder sogar länger laufen. In der Tech-Community sorgt das System bereits für Aufsehen: Der Open-Source-Code auf GitHub hat mehr als 2.000 Sterne, zudem wurde die Forschung zur Präsentation auf der International Conference on Learning Representations 2026 angenommen.

Darüber hinaus stellt das Team mit LayerSync eine begleitende Methode vor, mit der die KI ihre interne Logik über Video-, Bild- und Tonerzeugung hinweg korrigieren kann. Zusammen versprechen diese Werkzeuge robustere autonome Systeme – und eröffnen neue Möglichkeiten für eine wirklich lange, zusammenhängende generative Videoerstellung.

Quelle(n)

Teilen Sie diesen Artikel, um uns zu unterstützen. Jeder Link hilft!
Mail Logo

Keine Kommentare zum Artikel

Fragen, Anregungen, zusätzliche Informationen zu diesem Artikel? - Uns interessiert Deine Meinung (auch ohne Anmeldung möglich)!
Keine Kommentare zum Artikel / Antworten

static version load dynamic
Loading Comments
Diesen Artikel kommentieren / Antworten
> Notebook Test, Laptop Test und News > News > Newsarchiv > News 2026-02 > Neues Open-Source-KI-Tool ermöglicht deutlich längere und konsistentere Videogenerierung
Autor: Chibuike Okpara, 10.02.2026 (Update: 10.02.2026)