Heute Abend soll Apple eine neue iOS 13 developer beta veröffentlichen, die unter anderem das langersehnte Feature „Deep Fusion“ für die iPhone 11 und 11 Pro Modelle bringen soll. Wir informieren euch direkt, wenn die beta hier ist.
The Verge berichtete soeben, dass Apple gleich eine neue iOS 13 beta veröffentlicht, die Deep Fusion beinhaltet. Vermutlich wird es sich um iOS 13.2 handeln.
Deep Fusion wirkt damit ähnlich wie der Porträtmodus, der damals ebenfalls in einer iOS beta zuerst aufgetaucht war und dann sogar noch lange auch öffentlich als Beta-Software im offiziellen iOS benutzbar war.
Was war nochmals Deep Fusion
Deep Fusion soll den Mittelplatz ausfüllen, der zwischen Situationen mit Apples Smart HDR (helle und normale Szenen) und Apples Nightmode (sehr dunkle Szenen) entsteht. Die Software im Zusammenspiel mit dem neuen A13 Chip und der Neural Engine schießt mehrere Bilder für jedes einzelne Bild und kann damit unglaublich viele Details einfangen, selbst wenn es langsam dunkel wird oder in Innenräumen und ansonsten schwierigen Verhältnissen, die bislang in einem wenig detailreichen Bild resultieren. Der Nachtmodus ist hingegen in diesen Situationen noch nicht geeignet, da es eigentlich zu hell ist.
Die Zoomlinse soll deutlich eher und früher auf Deep Fusion zurückgreifen, da sie grundsätzlich nicht so lichtstark ist. Die Weitwinkelkamera kann leider kein Deep Fusion.
Und so funktioniert es genau
Insgesamt dauert es eine Sekunde, um ein Deep Fusion Bild zu machen. Leider kann man den Effekt aber nicht ausschalten und einschalten schon gar nicht. Er funktioniert also noch intelligenter als der Darkmode, der immerhin deaktivierbar ist. Apples Ziel sei es, dass der Nutzer nicht merkt, dass das Feature arbeitet, teilte man The Verge mit.
- Noch vor dem Auslösen werden drei sehr schnelle Bilder geschossen, die dafür sorgen, dass nichts verwackelt wird und die grundsätzlichen Züge festgehalten werden. Beim Auslösen selber werden nochmals drei zusätzliche Bilder geschossen und anschließend direkt eines mit längerer Belichtung.
- Nun werden die drei normalen Bilder mit dem langzeitbelichteten zusammengesetzt mit einer Software, die Apple „synthetic long“ nennt, um bessere Ergebnisse zu erzielen als es Smart HDR in der gleichen Situation könnte.
- Deep Fusion sucht nun von den anderen drei Bildern das beste aus und setzt dieses nochmals mit der „synthetic long“ Aufnahme zusammen.
- Danach passiert die Magie, denn eine umfassende Nachbearbeitung findet komplett automatisch und intelligent statt. Dank KI wird von den Farben über den Himmel bis zur Haut und den Haaren der Personen im Bild alles nachbearbeitet.
- Das Bild ist fertig.
Wir werden einmal versuchen, Deep Fusion für euch schon testen zu können. Wann das Ganze publik für alle iPhone 11 und 11 Pro Nutzer erscheinen wird, ist noch unbekannt. iPhone 11 Nutzer werden genauso in den Genuss des Features kommen, obgleich Apple das Ganze auf der Bühne eher als Pro Feature angekündigt hatte.
30 Gedanken zu „Deep Fusion kommt heute in iOS 13 Beta: So funktioniert das Feature“
Die Kommentare sind geschlossen.