Directrice de recherche en intelligence artificielle pour Facebook à Montréal, Joëlle Pineau est une scientifique inspirée et inspirante. Avec elle, faisons un tour d'horizon du futur de l'IA.

Les 25 et 26 juin, au Carrousel du Louvre, s'est tenue la 11e édition de la conférence USI. Durant deux jours, chercheurs, ingénieurs, penseurs ou entrepreneurs parmi les plus influents au monde sont intervenus sur scène pour tenter d’entrevoir, chacun à leur manière, de quoi sera fait notre futur. Cette année, Mashable avec France 24 était partenaire de l’événement, et y consacre un cycle d’entretiens avec plusieurs personnalités invitées. Retrouvez le meilleur des conférences 2018 sous le hashtag #MashableFRxUSI.

Joëlle Pineau est la directrice du laboratoire FAIR de Facebook à Montréal, dédié à la recherche en intelligence artificielle (IA). Homologue canadienne du Français Yann LeCun, cette professeure agrégée en informatique codirige le Reasoning and Learning Lab de l'université McGill. Elle est aussi membre du comité de rédaction du Journal of Artificial Intelligence Research et a été distinguée de nombreuses fois. Elle est également mère de quatre enfants. Oui, ça fait beaucoup.

VOIR AUSSI : Mais qu’est-ce que Facebook fabrique au juste dans son labo parisien sur l’intelligence artificielle ?

Un CV impressionnant pour une chercheuse persuadée que l'intelligence artificielle peut apporter de nombreuses choses positives à l'humanité. Nous l'avons longuement rencontrée pour brasser différentes thématiques liées à l'intelligence artificielle. Ce que l'IA peut apporter à la médecine, la compréhension du langage entre l'humain et la machine, les prochaines frontières de l'IA ou la créativité chez les robots, en vrac. Entretien didactique sur un sujet essentiel au monde contemporain, pour mieux comprendre ce que l'IA peut apporter à l'humanité.

Qu’est-ce qu’on fabrique dans un labo dédié à l'intelligence artificielle chez Facebook ?

Facebook a plusieurs équipes de recherche qui travaillent sur différentes choses. Je travaille dans un labo qui s’appelle FAIR (Facebook Artificial Intelligence Research lab) et notre mission, c’est de comprendre les principes fondamentaux de l’IA. On développe des modèles mathématiques et des algorithmes qui sont axés sur la compréhension de l’information et comment utiliser cette info pour prendre des décisions. Principalement sur les images, les conversations, les vidéos et ce qui est issu des plateformes sociales en ligne. Cela dit nous n’avons évidemment pas accès aux données des utilisateurs de Facebook et nous travaillons avec des jeux de données publiques. On veut être capables de publier nos résultats, de partager nos codes en open source et que d’autres labos à travers le monde puissent comparer leurs résultats avec les autres.

À l’occasion, on travaille avec des équipes produit en interne et les groupes de recherche appliquée. Les équipes produits ont des experts en IA et peuvent piocher dans nos recherches. Par exemple, les équipes de recherche fondamentale vont faire une démonstration sur un algorithme de recherche d’image et l’équipe de recherche appliquée va se demander comment utiliser cet outil sur Facebook ou comment le déployer à l’échelle du réseau, puisqu’il y a des millions d’images publiées chaque jour. Ils vont chercher à intégrer ça dans l’expérience client. Nous, nous allons vraiment agir sur les fondements de la science.

Depuis quelques années, il y a une redéfinition de la recherche en intelligence artificielle autour de l'apprentissage. Qu'est-ce qui a causé ce changement de paradigme et qu'est-ce qu'il implique ?

Comme toute bonne science, ce qui a changé, c'est la qualité des résultats. Sur l'analyse d'images par exemple, on avait des approches plus classiques basées sur la compréhension géométrique de l'information. Et ces méthodes ont été les meilleures pendant plusieurs années. À un moment donné sont arrivées les méthodes d'apprentissage et les résultats ont été meilleurs. Le paquebot a changé de direction et on s'est orientés là-dessus.

Après, on peut se demander pourquoi ces méthodes d'apprentissage sont-elles devenues meilleures ? C'est surtout grâce à la quantité de données à notre disposition. On est rentré dans un régime où on avait beaucoup plus de données. Et par ailleurs, il y a désormais la capacité de rouler des algorithmes avec des GPU [cartes graphiques permettant un travail intensif de l'ordinateur, NDLR]. Ils nous ont vraiment donné la possibilité d'apprendre des fonctions beaucoup plus complexes avec l'apprentissage. Avoir un modèle plus complexe, c'est comme avoir un plus gros cerveau : on peut traiter des informations plus compliquées.

Qu'est-ce que ces nouvelles capacités impliquent concrètement dans l'utilisation des systèmes d'intelligence artificielle ?

C'est vraiment par secteur. Si l'on prend les voitures autonomes, on pense aux données caméras qui permettent d'analyser la scène et rapidement voir où sont tous les piétons, les vélos, les véhicules alentours dans des conditions d'illuminations qui peuvent beaucoup varier. Elles peuvent être capable, de façon fiable, avec plusieurs objets dans l'environnement et sur différentes conditions d'illumination, d'identifier ce qui les entoure rapidement. C'est quelque chose qu'on ne pouvait pas faire il y a cinq ou dix ans. Maintenant, la qualité est véritablement bonne.

pineau-joelle.jpg
Université McGill

Vous êtes une spécialiste du l'apprentissage profond par renforcement (deep reinforcement learning), la "variante" du l'apprentissage profonde (deep learning), essentiel à l'intelligence artificielle. Pouvez-vous nous en parler et nous expliquer son principe ?

Le deep learning, c'est donc ce qui va permettre d'analyser les informations. Avec les voitures autonomes, ça va être l'analyse de l'information des capteurs du véhicule. Le reinforcement learning, si l'on suit l'exemple, ça va être la prise de décision. Ça va permettre de déterminer comment adapter la conduite. Avec le deep learning, on a l'analyse passive de l'information. Avec le reinforcement learning, on a la prise de décision séquentielle grâce à une planification, un contrôle. C'est très complémentaire.

Vous avez également réalisé des recherches sur l'IA et le domaine de la santé. Qu'est-ce que l'intelligence artificielle apporte aujourd'hui à la médecine ?

Il y a beaucoup de travaux. Notamment sur l'utilisation de l'IA pour l'analyse d'imagerie médicale. Ce sont des cas où l'on a des bonnes techniques. L'enjeu, c'est souvent de faire face à un manque de données. Je travaille sur l'épilepsie et c'est une maladie où il y a beaucoup de variations d'une personne à l'autre. Donc il faut vraiment beaucoup de données pour chaque personne...

Au Canada, les données sont ouvertes sur ce genre de choses ?

Oui et non. Les données médicales sont toujours encadrées par des protocoles éthiques et ça dépend des risques. Je travaille principalement avec des données qui viennent des souris. Et d'ailleurs, là aussi, il y a des contrôles éthiques pour savoir comment nous collectons ces données pour s'assurer que les animaux ne souffrent pas. Et puis il y a un encadrement pour savoir comment nous partageons ces données.

Quand on travaille avec des données sur les humains, c'est encore plus compliqué et ça peut être un frein. Certaines sont plus faciles à anonymiser comme, pour l'épilepsie, certaines données obtenues par électroencéphalogramme [EG]. Le MIT avait notamment partagé des données d'épileptiques obtenues par EG, elles sont publiques et accessibles à tous.

Comment un système d'intelligence artificielle va-t-il utiliser ces données sur une maladie comme l'épilepsie ? Qu'est-ce qu'elle va apporter de simple, de concret à une personne qui souffre d'épilepsie ?

Il y a différentes phases et utilisations. L'IA va par exemple avoir un grand rôle concernant le diagnostic. Pour l'épilepsie, il n'y a pas de tests de sang pour savoir si la personne souffre de cette maladie ou pas. C'est vraiment une maladie définie par ses symptômes, comme les convulsions ou certaine sécrétions qu'on voit avec l'électroencéphalogramme. Faire l'analyse de façon automatique peut donc vraiment nous aider.

Je vous donne un cas précis. On a une collaboration avec une chercheuse qui est à l'université d'Ottawa et réalise un projet au Bhoutan, un petit pays d'Asie où il n'y pas de spécialiste en neurologie. Mais il y a malheureusement des épileptiques. Comment fait-on ? Qui regarde les électroencéphalogrammes pour s'assurer qu'on identifie les patients et qu'on leur prodigue les soins nécessaires quand il n'y a pas d'expertise dans le pays ? Cette chercheuse, avec notre aide, a développé un système de casque avec une IA pour récupérer les données de l'électroencéphalogramme. Les données sont ensuite envoyées au Canada et sont analysées, ce qui permet d'obtenir un diagnostic qui est renvoyé au Bhoutan.

Mais nous avons de plus en plus de mal à suivre de ce côté-là, parce qu'il faut qu'il y est des personnes capables d'analyser ces données. C'est extrêmement important. Dans un pays comme le Bhoutan, il vaut mieux que les médecins fassent des choses plus prioritaires que donner ces diagnostics si la machine est capable de le faire.

Au sein de FAIR Montréal, vous vous intéressez beaucoup aux agents conversationnels et à la compréhension du langage entre l'humain et la machine. Pourquoi est-ce un domaine essentiel de la recherche en IA ?

Il y a deux aspects. D'abord, la situation des chatbots n'est en effet pas géniale. C'est pour cela qu'on y travaille. Si on avait un système de qualité à ce niveau-là, pour résoudre nos problèmes et nos interrogations rapidement, ça serait quand même très utile. Il y a des aspects de notre vie que l'on pourrait gérer de manière plus efficaces avec de bons chatbots. Ça, c'est la raison pratique.

L'autre raison, c'est que le langage fait énormément partie de notre humanité. Ça nous différencie des autres espèces animales, même si certaines ont leurs propres systèmes de communication. C'est fondamental à notre humanité et à nos interactions sociales. Comme chercheuse en intelligence artificielle, si je comprends le langage, je comprends tellement plus ce qu'il se passe dans le monde. Quand on parle des chatbots, ce qui m'intéresse, c'est de modéliser des conversations naturelles, de soutirer de l'information, d'être capable d’interagir véritablement.

"Les chatbots ne sont pas encore assez bons pour mettre du contexte dans une conversation"

Mais les chatbots ont encore un côté gadget, un manque de naturel. Qu'est ce qui manque pour que nous puissions avoir une conversation naturelle avec un chatbot ?

Les chatbots ne sont pas encore assez bons pour mettre du contexte dans une conversation. Ils sont bons pour des interactions courtes. Avoir une conversation avec des propos qui ont une nuance, c'est encore compliqué. On a besoin de modèles plus sophistiqués. Les humains ont cette capacité de prioriser l'information et c'est essentiel dans le langage. On ne se souvient pas de tout, mais on sait ce qui est important. Les machines n'ont pas cette capacité là et c'est ce qu'il manque.

Lors de votre intervention à USI, vous avez abordé deux notions qu'on ne rattache pas naturellement à l'intelligence artificielle : la diversité et la créativité. Pourquoi ? De quoi parle-t-on ?

Pour ce qui est de la créativité, ce qui m'interpelle là-dedans, c'est le fait d'entendre très souvent que les machines ne peuvent pas être créatives. C'est un mythe, pour moi. Qu'est-ce que c'est, être créatif ? Ça peut être le fait de développer, de penser des nouvelles solutions à des problèmes. J'accroche à cette définition de la créativité parce que je trouve qu'elle nous interroge sur notre propre condition, sur nos interactions, sur notre humanité.

La question de la diversité est bien plus pratique, évidemment. C'est celle du fonctionnement de tous les jours, dans nos équipes. Avoir plus de diversité, c'est nous poser des questions plus riches, plus intéressantes. C'est une diversité humaine. Dans notre laboratoire, nous devons être trois à être nés au Canada. Nous avons tous une vue sur le monde différente, des expériences différentes et une expertise technique, aussi, différente.

En France, on connaît beaucoup Yann LeCun, qui s'occupe du laboratoire FAIR à Paris. Pour lui, l'apprentissage prédictif est "la prochaine frontière de l'intelligence artificielle". Qu'en pensez-vous ?

J'adhère à cette vision et on a eu des conversations là-dessus. L'un des aspects de l'apprentissage prédictif, c'est de vraiment comprendre comment le monde change et d'en concevoir un modèle. Ce n'est pas juste de savoir comment il change de manière passive mais, quand j'interviens sur quelque chose, comprendre ce que ça va causer comme changement dans le monde. C'est ça, l'apprentissage prédictif, et c'est une question fondamentale liée à l'IA. Il y a des gens dans tous les labos de FAIR qui s'intéressent à ça.

Reprenons l'exemple d'un véhicule autonome. Il voit un vélo. Où va-t-il ? Si le véhicule est capable de prédire la trajectoire du vélo, ça lui donne énormément d'information sur la manière dont il doit se contrôler et il peut faire des choix en fonction. Même chose pour les piétons : vont-ils se lancer devant la voiture ou continuer à marcher sur les côtés ? L'apprentissage prédictif, c'est cette capacité de décision en avance.

Mais où se situe le facteur de l'aléatoire, de l'imprévisible alors ?

C'est intéressant et c'est toute la partie qu'on ne comprend pas, d'une certaine façon. Prenez un ordinateur qui nous donne un algorithme avec un élément aléatoire. Il n'est plus aléatoire quand on connaît le random seed, les conditions initiales de ce système-là. Les ordinateurs sont complètement déterminés. Pour le monde physique, humain, on ne sait pas encore ! Qu'est-ce qui est de l'ordre du déterminisme, qu'est-ce qui est de l'ordre de l'aléatoire ? Plus on comprend, moins il y a d'aléatoire. Et même avec l'aléatoire, on peut chercher du statistique. Si je suis une voiture et que j'ai croisé 5 000 piétons en une semaine et que j'en trouve dix dans l'ensemble qui ont eu un comportement imprévisible, c'est déjà statistique.

Quelque chose à ajouter ? Dites-le en commentaire.