Die Macher von Midjourney haben eine Vision: Zukünftige Modelle sollen die reale Welt in Echtzeit simulieren können! Für dieses Ziel haben sie einen Plan, aufgeteilt in Blöcke. Alles geht vom ersten Bildmodell aus, danach sollen diese Bilder in Videos umgewandelt werden, zusätzlich braucht es noch 3D-Modelle, um die eigene Bewegung im Raum abzubilden und zu guter Letzt muss das Ganze schnell ablaufen, man braucht also Echtzeit-Modelle.
Wir erweitern unser News & Magazin-Team und suchen Verstärkung im Bereich E-Mobility und Science.
Details
Daran arbeiten Midjourney-Macher in den kommenden Jahren und Schritt 2 haben sie jetzt vollzogen, indem sie Version 1 ihres Videomodells veröffentlichen. Der Standard-Workflow basiert auf Bild-zu-Video Anweisung. Bilder, die mit Midjourney erstellt wurden, können jetzt auf Knopfdruck animiert werden. Der Knopfdruck setzt den Automatikprozess in Gang, alternativ kann man im manuellen Modus aber auch selbst bestimmen was sich wie bewegen soll.
Die Videogenerierung beschränkt sich dabei nicht nur auf die von Midjourney direkt generierten Bilder, es können auch eigene Bilder hochgeladen und anschließend animiert werden. Da der ganze Vorgang noch nicht ganz perfekt ist, gibt es eine Low-Motion- und eine High-Motion-Option. Erstere sorgt für zeitlupenartige Animationseffekte bei fest stehender Kamera und soll deutlich weniger Fehler erzeugen. High Motion lässt mehr Bewegung bei der Kamera und den Objekten zu, kann aber auch zu mehr unerwünschten Effekten führen.
Die neue Funktion erzeugt 4 Sekunden kurze Videos, deren Länge sich schrittweise um weitere 4 Sekunden erhöhen lässt, das Ganze kann bis zu 4 mal wiederholt werden. Dabei stehen die Kosten der Videogenerierung und die Preise für die Kunden noch nicht ganz fest. Zumindest behält sich das Unternehmen vor die Situation erst einmal zu beobachten und zu schauen, wie stark die Funktion genutzt wird und wie viele (Server-) Kapazitäten sie haben.
Quelle(n)
Midjourney






















