Inspiré des technologies développées pour la caméra Google Clips, un mode Photobooth fait sont apparition sur le Pixel 3. Celui-ci utilise l’intelligence artificielle pour automatiser la capture de selfies.
Voilà maintenant quelque temps qu’une étrange idée a germée dans les esprits des ingénieurs de Google : débarrasser les utilisateurs des appareils photo et caméras de la marque de la tâche consistant à appuyer sur le déclencheur pour confier l’action de capture des images à l’intelligence artificielle. Selon la firme de Mountain View, une telle démarche limiterait en effet le nombre de prises de vues ratées, notamment lors de la capture de selfies de groupe.
La fiabilité de ce type de technologie a déjà été mise à l’épreuve avec la Google Clips, petite caméra conçue pour accompagner l’utilisateur dans ses moindres faits et gestes, et dont le micrologiciel est programmé pour enregistrer automatiquement des photos et vidéos des moments qu’il juge dignes d’intérêt. Constituant un produit de niche uniquement vendu aux États-Unis, la Clips semblait néanmoins avoir valeur de test préfigurant les fonctionnalités qui pourraient intégrer d’autres appareils de captation.
C’est ainsi que, un peu plus d’un an après le début de la commercialisation de la Clips, le mode Photobooth fait son apparition dans l’application photo du smartphone Pixel 3. Lié au fonctionnement des deux APN situés sur la face avant du terminal, ce mode de prises de vues a été développé grâce à l’apprentissage automatique, de manière à prendre en compte la stabilité de l’appareil, et à reconnaître des expressions de visages considérées comme propices à la capture de selfies. Dans la pratique, si l’utilisateur doit appuyer une fois sur le déclencheur pour activer le mode Photobooth, c’est ensuite le Pixel 3 qui s’occupe de capturer des photographies lorsqu’il détecte des sourires, un baiser, des duck faces, ou autres manifestations modernes du narcissisme. Pour aider l’utilisateur, un indicateur visuel – qui prend la forme d’une barre blanche plus ou moins longue – le renseigne sur le degré de validation de son expression par l’appareil.
Comme dans le cas de la Clips, Google dit avoir travaillé avec des professionnels de l’image de façon à déterminer les critères participant au fait qu’une photographie est jugée réussie. Comme dans le cas de la Clips, il nous semble que quelques inquiétudes peuvent être émises face à une conception aussi étriquée d’une image de qualité.
Source : Google AI Blog
0 commentaire
Ajouter le vôtre