Des chercheurs de Samsung en machine learning (apprentissage automatique) ont mis au point un système capable de recréer des mouvements réalistes à partir d’une seule image du visage d’une personne, ouvrant ainsi la possibilité d’animer non seulement des photos, mais également des peintures. Parmi les photos utilisées, le portait de la fameuse Joconde et de Einstein qui bouge les lèvres.
C’est une nouvelle méthode d’application de repères faciaux sur un visage source (n’importe quelle tête parlante) aux données du visage d’un visage cible, ce qui oblige le visage cible à faire ce que fait le visage source.
En soi, cela n’est pas nouveau: c’est une partie de l’ensemble du problème de l’imagerie de synthèse auquel le monde de l’informatique est actuellement confronté. Nous pouvons déjà faire un visage dans une vidéo refléter le visage dans une autre en termes de ce que la personne dit ou où elle regarde. Mais la plupart de ces modèles nécessitent une quantité considérable de données, par exemple une minute ou deux de vidéo à analyser.
Alors que dans cette recherche, les chercheurs de Samsung montrent qu’en utilisant une seule image du visage d’une personne, on peut générer une vidéo montrant ce visage qui tourne, parle et exprime des expressions ordinaires - avec une fidélité convaincante, bien que loin d’être parfaite.
[via]
[via]
No Response to "Intelligence Artificielle: enfin, la Joconde nous parle !"
Enregistrer un commentaire