Cliché Deep Fusion, ©Apple

Apple devrait lancer prochainement une nouvelle bêta développeurs d’iOs 13, la version 13.2 peut-on supposer. Si l’on en croit The Verge cette bêta sera l’occasion d’essayer le mode Deep Fusion, qu’Apple a présenté avec ses iPhone 11 et 11 Pro mais n’a pas encore activé dans son système.

Deep Fusion vise a améliorer grandement les images prises en intérieur, ou en condition de lumière médiocre. Il utilise la photographie computationnelle, que Phil Schiller appelle « science photographique folle » – pour combiner intelligemment plusieurs expositions, et traiter sélectivement les différents éléments de l’image : la peau, le tissu, le ciel etc…

Comment marche Deep Fusion ?

  • Lorsque vous appuyez sur le déclencheur, l’appareil photo a déjà saisi trois images à une vitesse d’obturation rapide pour figer le mouvement de la photo. Puis, il fait trois photos supplémentaires, puis une exposition plus longue pour capturer les détails.
  • Ces trois prises de vues régulières et les prises de vues à longue exposition sont fusionnées dans ce que Apple appelle une « synthèse longue » (synthetic long)
  • Deep Fusion choisit l’image à courte exposition avec le plus de détails et la fusionne avec l’exposition à synthèse longue. Contrairement au Smart HDR, Deep Fusion ne fusionne que ces deux images. Et l’algorithme travaille particulièrement le débruitage.
  • Les images passent par quatre étapes de traitement de détail, pixel par pixel, chacune adaptée à des quantités croissantes de détails: le ciel et les murs sont dans la bande la plus basse, tandis que la peau, les cheveux, les tissus, etc. sont au plus haut niveau. Cela génère une série de pondérations sur la manière de mélanger les deux images – en prenant des détails pour l’une et en ton et en luminance de l’autre.
  • L’image finale est générée.

AUCUN COMMENTAIRE

À vous la parole !

Fermer
*
*

Ce site utilise Akismet pour réduire les indésirables. En savoir plus sur comment les données de vos commentaires sont utilisées.