1. Oktober 2019

Lukas Gehrer

Deep Fusion kommt heute in iOS 13 Beta: So funktioniert das Feature

Heute Abend soll Apple eine neue iOS 13 developer beta veröffentlichen, die unter anderem das langersehnte Feature „Deep Fusion“ für die iPhone 11 und 11 Pro Modelle bringen soll. Wir informieren euch direkt, wenn die beta hier ist.

The Verge berichtete soeben, dass Apple gleich eine neue iOS 13 beta veröffentlicht, die Deep Fusion beinhaltet. Vermutlich wird es sich um iOS 13.2 handeln.

Deep Fusion wirkt damit ähnlich wie der Porträtmodus, der damals ebenfalls in einer iOS beta zuerst aufgetaucht war und dann sogar noch lange auch öffentlich als Beta-Software im offiziellen iOS benutzbar war.

Was war nochmals Deep Fusion

Deep Fusion soll den Mittelplatz ausfüllen, der zwischen Situationen mit Apples Smart HDR (helle und normale Szenen) und Apples Nightmode (sehr dunkle Szenen) entsteht. Die Software im Zusammenspiel mit dem neuen A13 Chip und der Neural Engine schießt mehrere Bilder für jedes einzelne Bild und kann damit unglaublich viele Details einfangen, selbst wenn es langsam dunkel wird oder in Innenräumen und ansonsten schwierigen Verhältnissen, die bislang in einem wenig detailreichen Bild resultieren. Der Nachtmodus ist hingegen in diesen Situationen noch nicht geeignet, da es eigentlich zu hell ist.

Die Zoomlinse soll deutlich eher und früher auf Deep Fusion zurückgreifen, da sie grundsätzlich nicht so lichtstark ist. Die Weitwinkelkamera kann leider kein Deep Fusion.

Und so funktioniert es genau

Insgesamt dauert es eine Sekunde, um ein Deep Fusion Bild zu machen. Leider kann man den Effekt aber nicht ausschalten und einschalten schon gar nicht. Er funktioniert also noch intelligenter als der Darkmode, der immerhin deaktivierbar ist. Apples Ziel sei es, dass der Nutzer nicht merkt, dass das Feature arbeitet, teilte man The Verge mit.

  1. Noch vor dem Auslösen werden drei sehr schnelle Bilder geschossen, die dafür sorgen, dass nichts verwackelt wird und die grundsätzlichen Züge festgehalten werden. Beim Auslösen selber werden nochmals drei zusätzliche Bilder geschossen und anschließend direkt eines mit längerer Belichtung.
  2. Nun werden die drei normalen Bilder mit dem langzeitbelichteten zusammengesetzt mit einer Software, die Apple „synthetic long“ nennt, um bessere Ergebnisse zu erzielen als es Smart HDR in der gleichen Situation könnte.
  3. Deep Fusion sucht nun von den anderen drei Bildern das beste aus und setzt dieses nochmals mit der „synthetic long“ Aufnahme zusammen.
  4. Danach passiert die Magie, denn eine umfassende Nachbearbeitung findet komplett automatisch und intelligent statt. Dank KI wird von den Farben über den Himmel bis zur Haut und den Haaren der Personen im Bild alles nachbearbeitet.
  5. Das Bild ist fertig.

Wir werden einmal versuchen, Deep Fusion für euch schon testen zu können. Wann das Ganze publik für alle iPhone 11 und 11 Pro Nutzer erscheinen wird, ist noch unbekannt. iPhone 11 Nutzer werden genauso in den Genuss des Features kommen, obgleich Apple das Ganze auf der Bühne eher als Pro Feature angekündigt hatte.

30 Gedanken zu „Deep Fusion kommt heute in iOS 13 Beta: So funktioniert das Feature“

  1. Ich habe DxO Mark immer sehr geschätzt , als man aber das Huawei P30 Pro gestetet hat und es mit einem Megawert belegte ist mein Vertrauen zu der Bude stark gesunken , sich Geldflüssen der Konzerne zu entziehen . Das Rauschen ist bei diesem Handy zum Teil so hoch das ich Aufnahmen von einem iPhone x noch besser finde . Zudem kommt noch eine Unschärfe in den Ecken dazu. Wie kann so eine Wertung herauskommen. Dann kommt das Samsung Note und schlägt noch die Topwertung vom Huawei. Heute wird jedes Bild einer Handykamera berechnet , dass machen die Topsmartphones von Huawei und Samsung mit einem Prozessor der 25-40% langsamer als der neue A13 fusion von Apple ist und Apple sagt das sie für einige Berechnungen noch viel schnellere Prozessoren braucht. Jetzt wird das neue Huawei mate 30 Pro mit einem neuen Mega- Testwert belegt…. gleicher Prozessor wie P30 aber mit 40 statt 20 Megapixel … Fazit : Entweder kann Huawei zaubern oder es gab ordentliche Beilagen.
    • Geld regiert die Welt. Sowas hat Apple mit dem iPhone 11 Pro erst recht nicht nötig. Ich habe selbst eins und ich Fotografiere extrem viel. Es ist einfach Wahnsinn was die Kameras leisten. Wie sich Deep Fusion schlägt bin ich nochmal gespannt. Bisher ist ja noch keine Beta raus 👀
    • Sorry du laberst Mist! Verbreite hier keine Unwahrheiten. Ich selbst besitze neben meinem XS ein Huawei P30Pro das macht bessere Bilder als das Xs. Und noch was das Mate 30 Pro hat ein Kirin 990 Prozessor verbaut. Das P30 den Kirin 980

Die Kommentare sind geschlossen.