Notebookcheck Logo

Stability AI: Macher von Stable Diffusion veröffentlichen GPT-Alternative

Die aktuellen großen Sprachmodelle werden häufig als Stochastik Parrot (Stochastik-Papagei) kritisiert (Bild: Stability AI)
Die aktuellen großen Sprachmodelle werden häufig als Stochastik Parrot (Stochastik-Papagei) kritisiert (Bild: Stability AI)
Die Entwickler hinter Stable Diffusion haben kürzlich mit StableLM eine Reihe neuer Sprachmodelle veröffentlicht, die ähnlich wie GPT funktionieren und sich untereinander hauptsächlich durch die unterschiedliche Anzahl der Parameter unterscheiden. Im Gegensatz zu GPT-4 ist das Sprachmodell hier vollständig Open Source.

Nachdem OpenAI letztes Jahr mit ChatGPT die Debatte um Künstliche Intelligenz im Allgemeinen und um große Sprachmodelle im Besonderen regelrecht geboostert hat, kommen in letzter Zeit immer mehr große KI-Modelle auf den Markt, bei denen es sich häufig um Konkurrenz-Modelle zu GPT-4 handelt. Dem schließt sich mit Stability AI ein weiteres Unternehmen an, das sich in der Branche bereits mit Stable Diffusion einen Namen gemacht hat.

Dabei wird das Sprachmodell diesmal unter dem Namen StableLM veröffentlicht. Im Gegensatz zu GPT-4 von OpenAI wird dieses Modell vollkommen Open Source veröffentlicht. Das hat für Interessierte viele Vorteile: Erstmal kann man die Modelle in den verschiedenen Größen auch auf dem eigenen Rechner ausführen und herumprobieren, ohne dass man für die API von OpenAI bezahlen muss oder sich mit deren Filtern auseinandersetzen muss. Letzteres ist dahingehend wichtig, da dadurch unabhängige Forschende besser potenzielle Biases testen können.

Für Unternehmen bieten Open-Source-Modelle den Vorteil, dass sie diese auf den eigenen Servern ausführen und anpassen können. Dadurch dürften viele datenschutzrechtliche Bedenken, die beispielsweise OpenAI betreffen, aufgelöst werden.

Das Sprachmodell wird wie mittlerweile üblich in verschiedenen Größen veröffentlicht. In der kleinsten Version besitzt StableLM 3 Milliarden Parameter, wohingegen die größte Variante mit 175 Milliarden Parametern auf dieselbe Größe wie GPT-3 kommt. Derzeit sind allerdings nur die Modelle mit 3 und 7 Milliarden Parameter verfügbar. Die übrigen werden in den nächsten Tagen und Wochen nachgereicht. Kleinere Modelle haben allgemein den Vorteil, dass deren Nutzung weit weniger rechenintensiv sind. Gleichzeitig sind deren Antworten häufig qualitativ schlechter.

Derzeit springen überall neue Start-ups aus dem Boden, die irgendetwas mit GPT und Co anbieten. Mittelfristig wird spannend sein zu sehen, welche Geschäftsmodelle hier wirklich tragen und was nach dem aktuellen Hype wieder abnehmen wird.

Quelle(n)

static version load dynamic
Loading Comments
Diesen Artikel kommentieren / Antworten
Teilen Sie diesen Artikel, um uns zu unterstützen. Jeder Link hilft!
> Notebook Test, Laptop Test und News > News > Newsarchiv > News 2023-04 > Stability AI: Macher von Stable Diffusion veröffentlichen GPT-Alternative
Autor: Cornelius Wolff, 21.04.2023 (Update: 21.04.2023)