Zum Inhalt springen

Gemma 4 auf dem iPhone nutzen: lokal, offline, ohne Cloud-Zirkus

Lokale KI auf dem Smartphone war lange eher Demo als Alltag. Mit Gemma 4 wird das auf dem iPhone deutlich praktischer.

Die wichtigste Nachricht dabei ist nicht nur das Modell selbst, sondern das Drumherum: Google stellt mit der AI Edge Gallery eine App bereit, mit der sich offene Modelle direkt auf dem Gerät ausprobieren lassen. Laut offizieller Projektbeschreibung läuft die Inferenz on-device, also lokal auf der Hardware.

Was Gemma 4 überhaupt ist

Laut offizieller Gemma-Dokumentation ist Gemma eine Familie leichter, offener Modelle aus dem Google-Umfeld. In der Doku wird Gemma 4 als aktuelle Generation geführt, inklusive Text-, Audio- und Bild-Eingabe sowie langen Kontextfenstern.

Welche App man braucht

Die belastbarste Quelle dafür ist das offizielle GitHub-Repo google-ai-edge/gallery. Dort beschreibt Google AI Edge die AI Edge Gallery als App, mit der Nutzer offene Modelle lokal auf dem Gerät ausführen können.

  • offizielle Unterstützung für Gemma 4
  • AI Chat
  • Thinking Mode
  • Ask Image
  • Prompt Lab
  • 100% On-Device Privacy laut Projektbeschreibung

Schritt für Schritt

  1. iPhone mit iOS 17 oder neuer prüfen
  2. AI Edge Gallery installieren
  3. passendes Gemma-4-Modell auswählen
  4. mit AI Chat oder Prompt Lab testen

Wo die Grenzen liegen

Ein iPhone ist kein Rechenzentrum. Typische Grenzen sind längere Antwortzeiten bei größeren Modellen, Akkuverbrauch, Wärmeentwicklung und begrenzter RAM.

Fazit

Gemma 4 auf dem iPhone ist kein Gimmick mehr, sondern ein brauchbarer Testlauf für echte lokale KI. Für einfache bis mittlere Aufgaben ist das heute schon nützlich. Für schwere Workflows bleibt die Cloud vorn.