9. Juni 2025

Lukas Gehrer

Zusammenfassung: Apple Intelligence auf WWDC 2025 – Was ist WIRKLICH neu?

Apple hat auf der WWDC 2025 die nächste Ausbaustufe seiner KI-Plattform „Apple Intelligence“ angekündigt. Dabei steht erneut der Datenschutz im Vordergrund: Alle Funktionen sollen lokal auf dem Gerät oder in Apples Private Cloud Compute verarbeitet werden. Laut Apple wird die KI leistungsfähiger, flexibler und erstmals auch für Entwickler direkt nutzbar gemacht. Doch viele der vorgestellten Funktionen sind Erweiterungen bereits existierender Tools – oder wurden in früheren iOS-Versionen bereits eingeführt. Eine großartige technologische Neuausrichtung bleibt aus.

Foundation Models Framework: Zugriff für Entwickler

Die wichtigste strukturelle Neuerung ist das sogenannte Foundation Models Framework, mit dem Drittentwickler erstmals Zugriff auf Apples Sprach- und Bildmodelle erhalten. Diese sollen vollständig lokal auf iPhones, iPads und Macs laufen, die über einen M1-Chip oder neuer verfügen.

Ziel ist, dass Entwickler kontextbasierte, KI-gestützte Funktionen direkt in ihre Apps integrieren können – etwa das automatische Zusammenfassen von Texten, das Analysieren von Benutzerverhalten oder die Generierung personalisierter Inhalte.

Einordnung: Die Freigabe solcher Modelle für Drittnutzung ist zweifellos sinnvoll und wird in Entwicklerkreisen begrüßt. Allerdings bieten konkurrierende Plattformen wie Android bereits seit Längerem vergleichbare Schnittstellen – Google Gemini lässt sich ebenfalls in Apps integrieren. Apple schließt hier eher eine Lücke als dass es einen Vorsprung aufbaut.

Erweiterte Live-Übersetzung in FaceTime, Nachrichten und Telefon

Die Funktion Live Translation wird in mehrere System-Apps integriert – darunter FaceTime, die Telefon-App und iMessage. Gesprochene Inhalte können in Echtzeit erkannt, übersetzt und im Interface eingeblendet werden. Die Verarbeitung erfolgt lokal auf dem Gerät.

Einordnung: Die automatische Übersetzung gesprochener Sprache in Anrufen ist ein nützliches Feature. Allerdings hat Apple bereits 2024 ein Übersetzungs-Framework vorgestellt, das ähnliche Funktionalität bot. Die nun vorgestellte Integration in native Kommunikations-Apps ist eine konsequente Weiterentwicklung, aber keine Neuentwicklung.

Visual Intelligence: Bildschirm-Inhalte erkennen und weiterverarbeiten

Apple hebt erneut die Funktion „Visual Intelligence“ hervor, die Inhalte auf dem Bildschirm erkennt – z. B. Adressen, Termine oder Personen – und passende Aktionen vorschlägt. Nutzer können beispielsweise ein Datum aus einer Nachricht direkt in den Kalender übernehmen.

Neu ist laut Apple, dass dies nun systemweit funktioniert – auch innerhalb von Drittanbieter-Apps. Aktiviert wird die Funktion über die bekannte Screenshot-Geste oder über das Kontrollzentrum.

Einordnung: Diese Funktion war bereits Bestandteil früherer iOS-Versionen. Die neue Systemweite Verfügbarkeit und die Unterstützung für Dritt-Apps sind ein Ausbau – jedoch kein technischer Umbruch. Auch die Frage, wie zuverlässig die Erkennung in der Praxis ist, bleibt offen.

Genmoji und Image Playground: Personalisierte Emoji und KI-generierte Bilder

Die 2024 eingeführten Genmojis lassen sich nun noch weiter personalisieren – etwa mit verschiedenen Gesichtsausdrücken, Frisuren oder Brillen. Auch der Image Playground – Apples System zur KI-gestützten Bilderstellung – erhält eine API für Entwickler und ist jetzt auch direkt in Apps wie Nachrichten, Notizen und Pages verfügbar.

Einordnung: Beide Funktionen existierten bereits in Vorversionen. Die jetzt angekündigten Erweiterungen verbessern den Funktionsumfang, ändern jedoch nichts am Grundprinzip. Auch bleibt offen, ob Apple die zugrunde liegenden Modelle verbessert hat oder nur neue UI-Integrationen liefert.

Apple Intelligence in Kurzbefehlen (Shortcuts)

Apple integriert seine KI-Tools in die App Kurzbefehle, um Automatisierungen mit Textverständnis oder Bildverarbeitung zu ermöglichen. Nutzer sollen damit komplexere Workflows erstellen können, ohne selbst programmieren zu müssen.

Einordnung: Die Integration ist sinnvoll und wurde von vielen Power-Usern erwartet. Sie bietet erstmals eine praktische Anwendungsmöglichkeit für Apple Intelligence jenseits vordefinierter Use-Cases. Allerdings ist das Konzept – KI in Automatisierungsskripte einzubinden – bereits aus Drittanbieter-Tools und anderen Betriebssystemen bekannt.

Sprachunterstützung, Geräte und Architektur

Bis Ende 2025 soll Apple Intelligence acht neue Sprachen unterstützen – darunter Deutsch, Französisch, Spanisch, Italienisch und Japanisch. Das System setzt weiterhin auf ein hybrides Modell aus On-Device-Analyse und optionaler Auslagerung in Apples „Private Cloud Compute“, wobei Letztere laut Apple datenschutzkonform betrieben wird. Funktionen werden ausschließlich auf Geräten mit Apple Silicon angeboten – also mindestens A17 Pro oder M1 Chip.

Einordnung: Die zunehmende Sprachunterstützung ist ein erwartbarer Schritt. Die starke Hardwarebindung schließt viele Geräte vom Zugriff auf Apple Intelligence aus – insbesondere ältere iPhones und iPads. Dass Apple damit auf Sicherheit und Performance setzt, ist nachvollziehbar, aber für Nutzer älterer Geräte frustrierend.

Gesamtfazit: Evolution statt Innovation

Apple hat mit Apple Intelligence 2025 vor allem bestehende Funktionen erweitert, besser integriert oder für Entwickler geöffnet. Der Datenschutzfokus bleibt ein zentrales Alleinstellungsmerkmal, und das Framework für Entwickler kann langfristig relevant werden.

Allerdings fällt auf, dass viele der vorgestellten Funktionen – etwa Live Translation, Genmojis, Visual Intelligence oder der Image Playground – nicht neu, sondern bereits in vorherigen Versionen angekündigt oder implementiert wurden. Die WWDC-Präsentation legt den Fokus stärker auf Konsistenz und Kontrolle als auf technologische Sprünge.

Unterm Strich: Apple stärkt die eigene Plattform, ohne ein echtes Innovationssignal zu senden. Die Substanz hinter dem Begriff „Apple Intelligence“ wächst – aber langsamer als die Erwartungen. Für Entwickler ein solider Schritt, für Endnutzer ein iteratives Update mit bekannten Funktionen in neuem Gewand. Ob das genügt, um im globalen KI-Wettbewerb mitzuhalten, bleibt abzuwarten.

Was ist eure Meinung? Wie steht Apple KI-technisch gegen Google, Amazon, OpenAI und Co. da?

Schreibe einen Kommentar