Apple hat ein neues KI-Model veröffentlicht, welches in der Lage ist, aus gewöhnlichen Fotos innerhalb einer Sekunde dreidimensionale Szenen zu erstellen. Das Model ist Open Source und führt zu beeindruckenden Ergebnissen.
Die entsprechende Studie, die Apple veröffentlicht hat, hört auf den Namen „Sharp Monocular View Synthesis in Less Than a Second“, kurz SHARP. Darin beschreibt der iPhone-Konzern, wie aus bestimmte Parameter aus einem einfach Bild extrahiert werden und innerhalb einer Sekunde zu einem 3D-Model umgewandelt wird.
GitHub-Code sorgt für beeindruckende Ergebnisse auf X
Zur Verfügung stellt Apple den gesamten Code auf GitHub, einige User haben damit ihre ersten Versuche gemacht – und deren beeindruckende Ergebnisse aus X geteilt.
New paper from Apple – Sharp Monocular View Synthesis in Less than a Second
Mescheder et al. @ Apple just released a very impressive paper (congrats! 🎉🥳). You give it an image and it generates a really great looking 3d Gaussian representation. Uses depth pro. It’s really good.… pic.twitter.com/XSZCZA8iio
— Tim Davison ᯅ (@timd_ca) December 16, 2025
New paper from Apple – Sharp Monocular View Synthesis in Less than a Second
Mescheder et al. @ Apple just released a very impressive paper (congrats! 🎉🥳). You give it an image and it generates a really great looking 3d Gaussian representation. Uses depth pro. It’s really good.… pic.twitter.com/XSZCZA8iio
— Tim Davison ᯅ (@timd_ca) December 16, 2025
Single image to Splat in just 2 seconds.
Testing out in AirVis app. Apple ML team did an amazing job. pic.twitter.com/3ATNDLA4En— Arun Kurian (@AKurian001) December 16, 2025


