Notebookcheck Logo

KI: HPE bietet Greenlake für das abgeschottete Trainieren von Large Language Models an

HPE bringt Greenlake für KI-Anwendungen. (Bild: HPE)
HPE bringt Greenlake für KI-Anwendungen. (Bild: HPE)
Mit Greenlake for Large Language Models sollen Firmen eine KI trainieren können, ohne sich um die Trainingsdaten sorgen zu müssen. Europa muss aber länger warten, obwohl ein deutsches Start-up hilft.

Die As-a-Service-Plattform Greenlake von Hewlett Packard Enterprise wird es bald auch für KI-Anwendungen geben. Das kündigte der Hersteller im Rahmen der Hausmesse HPE Discover in Las Vegas an.

Greenlake for Large Language Models (LLMs) soll es Kunden ermöglichen, eine künstliche Intelligenz in einem abgeschotteten Umfeld zu trainieren. Unternehmen sollen sich keine Sorgen machen müssen, dass sie beim Training einer KI Daten verlieren.

Hier und da passierte das in der Vergangenheit, als zahlreiche Unternehmen anfingen, mit KI-System zu experimentieren und diese mit teils vertraulichen Daten fütterten.

Unterstützt wird HPE durch das deutsche Start-up Aleph Alpha (Luminous), dass LLMs bereitstellt, die für die Analyse sowie Verarbeitung von Text- und Bilddaten vorgesehen ist. Später will HPE noch LLMs für andere Anwendungszwecke wie etwa Klimamodelle, Gesundheitswesen oder Verkehr auf den Markt bringen. 

Die LLM-Services wird HPE auf den eigenen Supercomputern anbieten, wie das Unternehmen mitteilt. Zum Einsatz kommen HPEs Proliant-Server der 11. Generation, genauer die DL320 und DL380a. Die beiden Server wurden für KI-Anwendungen angepasst und arbeiten mit einer GPU-Beschleunigung.

Bis zum Einsatz wird es aber insbesondere in Europa länger dauern. Zwar nimmt HPE bereits Bestellungen für Greenlake for LLMs entgegen, doch zunächst werden nur Kunden in Nordamerika bedient. Für Europa erwartet HPE eine Verfügbarkeit zum Anfang des Jahres 2024.

HPE verspricht zudem, dass Greenlake for LLMs zu 99,5 Prozent mit erneuerbaren Energien versorgt werden soll. Damit versucht das Unternehmen Befürchtungen abzudämpfen, dass die Leistungsaufnahme von KI-Anwendungen sehr hoch ist. Möglich wird das durch eine Co-Location der Server beim Anbieter QScale in Quebex, Kanada.

Quelle(n)

HPE Presseaussendung

static version load dynamic
Loading Comments
Diesen Artikel kommentieren / Antworten
Teilen Sie diesen Artikel, um uns zu unterstützen. Jeder Link hilft!
> Notebook Test, Laptop Test und News > News > Newsarchiv > News 2023-06 > KI: HPE bietet Greenlake für das abgeschottete Trainieren von Large Language Models an
Autor: Andreas Sebayang, 20.06.2023 (Update: 20.06.2023)