Update – merci à YchabR pour cette info :
Ca se fait dans les labos de recherche depuis un moment. Content de voir que ça va atteindre le grand public !
Update 2 – Adobe avoue qu’une des images (la 3e) a été artificiellement floutée sous Photoshop, mais que les autres sont bien issues d’appareils photos…
…………………………
Pour rebondir sur notre conférence « La Photo est-elle devenue trop facile ?« , voici la dernière prouesse d’Adobe.
Lors de sa dernière conférence MAX, l’éditeur des célèbres Photoshop et Lightroom a dévoilé un outil assez impressionnant. Ce dernier, encore en développement, peut calculer la trajectoire des vibrations rencontrées durant une prise de vue, pour recalculer l’image… et la rendre nette ! La démo semble avoir enthousiasmé l’assistance…
A noter cependant que cela ne corrigera pas une image floue pour cause de mauvaise mise au point : nous parlons vraiment de flou de bougé. Cet algorithme fonctionne cependant autant avec des images qu’avec des textes, il suffit de sélectionner une zone « test » pour calculer la trajectoire du flou et corriger le tout.
Adobe s’était également illustré en montrant il y a quelques mois un système de prise de vue permettant de choisir son niveau de profondeur de champ lors du post traitement, recherche également suivie par la société Lytro.
Comme nous le disions Dimanche au Salon de la Photo, avec de tels outils, la Photo deviendra de moins en moins technique avec le temps. Mais cela ne changera pas le talent d’un photographe, à savoir son Regard, sa Vision. Au contraire…
…………………………
+ via
18 commentaires
Ajouter le vôtre[…] Un Matériel par Lâm 17 commentaires 11 oct 2011 […]
Très intéressant techniquement parlant, mais j’ai une grande peur, c’est que ça ajoute un jalon à ce graphique http://also.kottke.org/misc/images/photography-stages.gif
C’est parfait pour la ménagère qui tremble (faut-il encore qu’elle se procure d’une manière ou d’une autre une copie de Photoshop…) lorsqu’elle prends une « jolie » photo, mais l’abus sera trop facile à mon avis.
Très intéressant ça !
On peut imaginer, en allant toujours plus loin : Avec la même technologie que pour les objectifs stabilisés, les boitiers pourraient enregistrer les mouvements effectués lors de la prise de vue, et du coup, Photoshop recupere ses données et HOP le « plugin » a directement les bonnes valeurs pour travailler au mieux !
Ca me laisse rêveur… mais c’est tellement possible ! (je bosse dans les VFX et suis régulièrement amené à scripter toutes sortes de choses, ben c’est tres plaisant de toute faire interagir !)
Tout cela m’inquiète personnellement. En tant qu’amateur et passionné de photographie, je ne peux que me réjouir du fait que cette pratique soit devenue plus accessible grâce à l’avènement du numérique. Toutefois cette facilité à pouvoir faire de des photos non-loupées ne me réjouie pas. Alors que mon appareil est sans cesse en mode manuel et que j’ai un fort penchant à vouloir me mettre à l’argentique la technicité et le savoir revêt une importance capitale, il n’y a pas forcément que le regard (même si celui-ci est également très important), si tout le monde peut faire de belles photos même si elles sont ratés alors il n’y a plus de saveur. la photographie c’est aussi un métier, un savoir. Si une de mes photos est ratée alors je me demande pourquoi je l’ai raté, et j’apprends ainsi à faire à chaque fois mieux. Si j’ai accès à de tels outils alors vouloir faire mieux, et être meilleur techniquement ne signifie plus rien.
ébahissement de l’audience : priceless
C’est vrai qu’une telle petite chose serait appréciable. On a pas toujours le choix des conditions de prises de vues :DD
Yogi a dit : « Cet outil sera à la base d’un retour du mouvement du f/16. »
En effet, cela rejoint la conférence
“La photo est-elle devenue trop facile ? Oui, et tant mieux”
(très intéressante, Bravo Lâm) de dimanche après-midi au salon de la photo…
« Les barbues » vont être contents…
😉
Intéressant. C’est à résolution constante ou bien on perd en résolution plus le flou est important ?
Ça a l’air super intéressant en tout cas. Bientôt les centaines de films avec des séquences « Enhance » dedans, seront dans le vrai 😀
( 2 petites coquilles « parlons vraiment de –de– flou » et « Adobe c’était également illustré « )
Il n’y avait pas plus précisions, je pense que cela tourne autour de l’interpolation.
Ok. Ca permettrait donc de conserver la résolution mais au prix d’une perte de piquée (ce qui est un moindre mal comparé au flou).
Ces outils de plus en plus nombreux d’assistance ou de correction de la prise de vue donnent vraiment l’impression que la technique va devenir très secondaire. Ca promet un avenir intéressant (quoique peut-être frustrant pour les puristes).
Salut !
Je pense pas que c’est de l’interpolation. Le mec dit que l’algorithme fait une estimation de la trajectoire de l’appareil photo. C’est quelque chose qu’on pourrait faire à l’oeil nu, sauf que là ça applique un mouvement inverse à la photo pour la restorer. C’est génial !!
Mais l’un n’empêche pas l’autre, non ?
@Manu je ne pense pas que l’algorithme » applique un mouvement inverse à la photo pour la restorer », tout du moins pas exactement. En effet il y a forcement perte d’information lors du bougé du coup je pense que les algorithmes utilisés ici vont plutôt « filtrer » l’image en utilisant les données acquises sur la perturbation (le bougé).
Du coup je pense que l’algo ne marchera que pour des bougés « raisonnables » et entrainera forcément une dégradation de l’image par rapport à une image nette d’origine.
Je me permet d’ajouter:
Pour ceux que ca intéresse, je pense qu’ils utilisent un filtrage de Wiener http://fr.wikipedia.org/wiki/Déconvolution_de_Wiener
Du coup l’exploit réside ici plutôt dans la détection du bougé à partir de la photo elle même
Je suis d’accord avec Rasp. C’est un algorithme de déconvolution. Et en effet la grosse difficulté est d’être capable de calculer la trajectoire de l’appareil. Or à priori photoshop a été capable de réaliser une assez bonne estimation de cette trajectoire sur la photo de démo (cf le dessin dans le petit carré noir). Il reste maintenant à tester sur des photos prises au hasard… En effet, l’idée d’appliquer des algortithmes de déconvolution n’est pas nouvelle (focusmagic, topaz infocus, etc) mais les résultats ont été jusqu’ici très quelconques.
Je pense qu’il y a deux débats :
– La fin des photos techniquement loupées
– Les belles photos accessibles à tous.
L’un n’engage pas forcément l’autre je trouve.
Si je compare une photo avec une pizza :
ce n’est pas parce que tu sais parfaitement disposer les ingrédients sur la pâte et parfaitement la cuire que la pizza sera bonne ! Si tu as choisi des légumes pourris et parsemé des copeaux de plastique par dessus… miami !
Signé : un membre de l’UMP, l’Union des Métaphores Pourries.