Accéder au contenu principal
Découvertes

L'intelligence artificielle DeepMind de Google a appris à lire sur nos lèvres

L'intelligence artificielle de Google DeepMind s'apprête à nous laisser sans voix.

Un robot et son concepteur dans un des laboratoires du MIT.
Un robot et son concepteur dans un des laboratoires du MIT. John B. Carnett
Publicité

Siri n’aura plus jamais à entendre notre voix. Et nous, à crier seul en public.

VOIR AUSSI : Après avoir visionné des séries télé, un algorithme peut maintenant prédire le comportement humain

Grâce à l’intelligence artificielle de Google, on va désormais pouvoir susurrer à notre téléphone ou notre robot domestique nos instructions. Ils devraient normalement comprendre tout ce qu'on lui dira en lisant sur nos lèvres.

En partenariat avec l’université d’Oxford, l’intelligence artificielle de Google DeepMind, connue pour avoir donné des sueurs froides au champion du monde de Go, a appris à lire sur les lèvres des humains. Et ce bien mieux que n’importe quel professionnel.

Binge watching de la BBC

Pour réussir à déchiffrer les mots sans les entendre, DeepMind a été nourrie de milliers d’heures d’émissions de la chaîne de télévision anglaise BBC diffusées entre janvier 2010 et décembre 2015. Au total, près de 5 000 heures de vidéos, soit plus de 118 000 phrases, ont été absorbées par la machine.

Une fois l’apprentissage mené à son terme, les chercheurs d’Oxford et l’équipe de Google ont testé l’intelligence artificielle sur des programmes diffusés entre mars et septembre 2016, qui lui étaient donc jusqu’alors inconnus.

Et pour pousser le vice encore plus loin, les scientifiques ont comparé les résultats de DeepMind avec ceux d’un professionnel de la lecture sur lèvres. Résultats : sur 200 clips sélectionnés arbitrairement, la machine trouvait 46.8% des mots sans erreur, contre 12.4% pour le professionnel.

Prend ça humain. Mais à quoi servira un robot capable de lire sur nos lèvres ? Pas à l’espionnage de masse, nous dit-on du côté du journal Newscientist, mais plutôt à l’aide au consommateur.  

"Ces machines pourraient améliorer l’aide pour les personnes malentendantes, permettre la diction silencieuse dans les espaces publics et la reconnaissance vocale dans les environnements bruyants", a expliqué Yannis Assael, chercheur à l'université d'Oxford, au journal Newscientist

Pour rappel, les lèvres ne sont pas le premier organe facial auquel DeepMind s'attaque. En juillet dernier, Google avait annoncé une collaboration avec un hôpital ophtalmologique à Londres pour apprendre à son intelligence artificielle à détecter des maladies occulaires. 

Quelque chose à ajouter ? Dites-le en commentaire.

Le résumé de la semaineFrance 24 vous propose de revenir sur les actualités qui ont marqué la semaine

Emportez l'actualité internationale partout avec vous ! Téléchargez l'application France 24

Partager :
Page non trouvée

Le contenu auquel vous tentez d'accéder n'existe pas ou n'est plus disponible.