La technologie, actuellement développée par des chercheurs, dont certains de la firme Nvidia, pourrait équiper de futurs logiciels et, peut-être d'ici quelques temps, nos smartphones.

Si cela fait des années qu’elle est totalement fonctionnelle dans de nombreux téléfilms et séries policières ("Sergent MacLane, zoomer dans cette image de vidéosurveillance et affichez-moi le visage de cet individu en haute définition"), la correction automatique de nos photographies floues, pleines de bruit ou trop sombres est encore bien loin d’être une technologie au point dans la vraie vie. Mais des chercheurs de l’entreprise Nvidia travaillent à ce que ces améliorations de clichés spectaculaires et instantanés deviennent une réalité.

VOIR AUSSI : Un site permet de rendre nettes vos photos les plus floues grâce au machine learning

L’équipe s’est ainsi appuyée sur 50 000 images HD tirées de l'ensemble de données ImageNet afin de former son système d’intelligence artificielle à la reconstruction d’une photographie de piètre qualité, et ce même si celui-ci n’a jamais vu auparavant l’image sans ses défauts. Nommé Noise2Noise, l’IA a "ingéré" ces milliers d’images par deux fois : d’abord dans une version optimale, puis dans une seconde version saturée de bruit aléatoire.

nvidia-image-bruit.png

Certes, les méthodes de réduction du bruit sur image n’ont rien de nouveau, me direz-vous. Mais celles utilisant des technologies de deep learning, ou apprentissage profond, sont bien plus récentes. On sait d'ailleurs depuis plus d'un an que Google entraîne ses IA à rendre nettes des images floues, notamment au sein de son projet Google Brain.

Lors de la Conférence internationale sur le machine learning organisée cette semaine à Stockholm, en Suède, le groupe d’experts devrait en tout cas mieux détailler ses avancées en la matière, et notamment spécifier son intérêt dans les secteurs de l’imagerie médicale ou de l’astrophotographie, souvent chargée en bruit. "Il s'agit d'une preuve de concept formé sur une base de données publique d'IRM, et qui pourrait être prometteur dans le futur", a déclaré Jacob Munkberg, chercheur chez Nvidia, au site VentureBeat.

Quelque chose à ajouter ? Dites-le en commentaire.