Notebookcheck Logo

Google Gemma 3 270M: Googles neues Kleinst-LLM für mobile Edge-Geräte

Google Gemma 3 270M: Googles neues Kleinst-LLM für mobile Edge-Geräte (Bildquelle: KoLa auf Pixabay)
Google Gemma 3 270M: Googles neues Kleinst-LLM für mobile Edge-Geräte (Bildquelle: KoLa auf Pixabay)
Google hat mit Gemma 3 270M ein besonders energieeffizientes Sprachmodell vorgestellt. Das Large Language Model umfasst lediglich 270 Millionen Parameter und ermöglicht damit erstmals eine KI-Inferenz, also eine Anwendung der KI, direkt auf dem Smartphone, ohne den Akku spürbar zu belasten.

Google bietet damit ein LLM speziell für den wachsenden Edge-AI-Markt, bei dem Anwendungen unmittelbar auf dem Endgerät ausgeführt werden, etwa einem Smartphone oder einer Kamera, anstatt die Daten an eine Cloud zu senden und dort zu verarbeiten.

Extreme Energieeffizienz

Gemma 3 270M, ein Modell aus dem Gemma-3-Family-Release von Google DeepMind, ermöglicht eine solche lokale Bearbeitung der Daten durch seine extreme Energieeffizienz: Laut Google Developers Blog verbraucht die INT4-quantisierte Version auf einem Pixel 9 Pro-SoC nur 0,75 Prozent der Akkukapazität für 25 Dialogzyklen, womit es effizienter als alle vorherigen Versionen ist.

270 Millionen Parameter

Von den insgesamt 270 Millionen Parametern des LLM Gemma 3 270M entfallen laut Google Developers Blog 170 Millionen auf Embeddings und 100 Millionen auf die Transformer-Blöcke. Die große Vokabularbasis (256 k Tokens) erlaubt den Umgang mit seltenen Begriffen und unterstützt damit domänenspezifisches Fine-Tuning.

Solide Leistung bei inferenzlastigen Operationen

Google AI for Developers zufolge erreicht das Modell bei inferenzlastigen Operationen auf aktuellen Smartphone-SoCs Latenzen von unter 20 ms. Damit ist die Architektur vor allem für kurzzeitige, deterministische Aufgaben wie Textklassifikation oder Datenextraktion prädestiniert; für komplexe, lang andauernde Dialoge bleibt sie ungeeignet.

Limitationen

Die Speicherbandbreite stellt eine praktische Einschränkung dar: India Magazine berichtet, dass das quantisierte Modell rund 240 MB GPU-Speicher benötigt; zusätzlicher RAM für Puffer- und Kontextverwaltung ist nicht eingerechnet. Für eine breitere Einsatzfähigkeit dürften Optimierungen bei der Speicherverwaltung oder leistungsfähigere SoC-Architekturen erforderlich sein.

Vergleich & Kontext

Das Modell erreicht laut Google Developers bei spezialisierten Aufgaben – wie Klassifizierung, Strukturierung oder Entitätsextraktion – deutlich geringere Betriebskosten als größere LLMs. Im Instruction-Following-Benchmark IFEval erzielte die instruction-tuned Version eine Punktzahl von ca. 51,2 %. Damit liegt sie nach SiliconANGLE deutlich über ähnlich großen Modellen, auch wenn kleinere Modelle wie Liquid AI’s LFM2-350M (350 M Parameter) auf rund 65 % kommen.

Perspektive

Gemma 3 270M demonstriert, welche Effizienz-Lösungen KI-Modelle bieten können, wenn Größe bewusst reduziert und auf den Einsatzzweck zugeschnitten wird. Für Entwickler, die Edge-AI-Anwendungen mit hohem Datenschutz und geringem Energieverbrauch realisieren wollen, ist es ein vielversprechendes Modell – vorausgesetzt, die Hardwareanforderungen sind erfüllbar.

 

 

static version load dynamic
Loading Comments
Diesen Artikel kommentieren / Antworten
Teilen Sie diesen Artikel, um uns zu unterstützen. Jeder Link hilft!
Mail Logo
> Notebook Test, Laptop Test und News > News > Newsarchiv > News 2025-08 > Google Gemma 3 270M: Googles neues Kleinst-LLM für mobile Edge-Geräte
Autor: Ulrich Mathey, 18.08.2025 (Update: 27.08.2025)