Lokale KI auf dem Smartphone war lange eher Demo als Alltag. Mit Gemma 4 wird das auf dem iPhone deutlich praktischer.
Die wichtigste Nachricht dabei ist nicht nur das Modell selbst, sondern das Drumherum: Google stellt mit der AI Edge Gallery eine App bereit, mit der sich offene Modelle direkt auf dem Gerät ausprobieren lassen. Laut offizieller Projektbeschreibung läuft die Inferenz on-device, also lokal auf der Hardware.
Was Gemma 4 überhaupt ist
Laut offizieller Gemma-Dokumentation ist Gemma eine Familie leichter, offener Modelle aus dem Google-Umfeld. In der Doku wird Gemma 4 als aktuelle Generation geführt, inklusive Text-, Audio- und Bild-Eingabe sowie langen Kontextfenstern.
Welche App man braucht
Die belastbarste Quelle dafür ist das offizielle GitHub-Repo google-ai-edge/gallery. Dort beschreibt Google AI Edge die AI Edge Gallery als App, mit der Nutzer offene Modelle lokal auf dem Gerät ausführen können.
- offizielle Unterstützung für Gemma 4
- AI Chat
- Thinking Mode
- Ask Image
- Prompt Lab
- 100% On-Device Privacy laut Projektbeschreibung
Schritt für Schritt
- iPhone mit iOS 17 oder neuer prüfen
- AI Edge Gallery installieren
- passendes Gemma-4-Modell auswählen
- mit AI Chat oder Prompt Lab testen
Wo die Grenzen liegen
Ein iPhone ist kein Rechenzentrum. Typische Grenzen sind längere Antwortzeiten bei größeren Modellen, Akkuverbrauch, Wärmeentwicklung und begrenzter RAM.
Fazit
Gemma 4 auf dem iPhone ist kein Gimmick mehr, sondern ein brauchbarer Testlauf für echte lokale KI. Für einfache bis mittlere Aufgaben ist das heute schon nützlich. Für schwere Workflows bleibt die Cloud vorn.