Accéder au contenu principal
Découvertes

Deux chercheurs du MIT préparent l'intelligence artificielle à devoir faire des choix moraux

Qui la voiture autonome doit-elle tuer : deux enfants ou un groupe de cinq personnes âgées ?

Donte Neal/Mashable
Publicité

Imaginez un train. Il fonce en ligne droite, à toute allure, visiblement inarrêtable. À quelques centaines de mètres devant lui se trouve une jonction entre deux rails. Vous, vous êtes installé, tranquillement, à côté de cette jonction. Et vous avez à disposition une sorte de levier : si vous l’actionnez, le train prendra les rails de droite. Sinon, il prendra automatiquement ceux de gauche.

Il y a toutefois un problème. Sur les rails de droite, un jeune homme est coincé. Mais sur ceux de gauche, cinq hommes sont attachés. Faut-il actionner le levier ou vaut-il mieux ne pas agir ? On appelle cela le "dilemme du tramway" et vous êtes le seul à même de prendre une décision.  

VOIR AUSSI : Comment l'intelligence artificielle métamorphose déjà l’enseignement supérieur

Depuis un an, une équipe de chercheurs du MIT a lancé un curieux site appelé Moral Machine qui reprend exactement ce dilemme pour l’accorder avec une thématique contemporaine : le développement de l’intelligence artificielle. On doit ainsi voter pour savoir si une voiture autonome doit écraser les passants de droite, ceux de gauche ou, parfois, sacrifier les personnes se trouvant dans la voiture.   

The Outline nous rapporte qu’après le lancement du projet, la couverture médiatique a été telle – le Guardian, New York Times, Scientific American… –, qu’à ce jour, près de 18 millions de votes ont été enregistrés sur les différents questionnaires, pour 1,3 million de votants. La quantité de données a donné des idées aux deux chercheurs, Iyad Rahwan, chercheur au MIT à l’origine de Moral Machine, et Ariel Procaccia, professeur assistant en science informatique à l’université Carnagie Mellon. Ils ont décidé de créer une IA fondée sur les réponses à Moral Machine.

Les décisions de l’IA sont celles de l'homme

Dans un article très technique publié à la fin du mois de septembre, les deux chercheurs expliquent comment ils ont créé leur intelligence artificielle capable d’évaluer et de prendre des décisions, selon les choix de la communauté de Moral Machine.

Lors de la conception de leur algorithme, les chercheurs ont d’abord été confrontés à un premier problème : que se passe-t-il si l’IA est soumise à une situation qui n’a pas été envisagée dans le test et ses réponses ? Grâce aux progrès du machine learning – la capacité d’une IA (en l’occurrence), à comprendre par elle-même – Ariel Procaccia est assez sûr des capacités de sa création.

"Nous ne disons pas que le système est prêt à être utilisé en conditions réelles", affirme-t-il à The Outline. "Mais c’est une démonstration de faisabilité, qui montre que la démocratie peut aider dans les grandes problématiques éthiques qui existent sur la conception de l’IA."

Les choix que fait l’IA des deux chercheurs sont donc conformes à ceux des internautes. Elles reflètent donc les choix humains. Entre écraser un criminel et une personne normale, l’IA choisit constamment le criminel. Idem entre une personne sans abri et une personne avec un domicile. Et entre sacrifier une personne au lieu de deux, elle choisira toujours de sacrifier la personne seule.

Quelque chose à ajouter ? Dites-le en commentaire.

Le résumé de la semaineFrance 24 vous propose de revenir sur les actualités qui ont marqué la semaine

Emportez l'actualité internationale partout avec vous ! Téléchargez l'application France 24

Partager :
Page non trouvée

Le contenu auquel vous tentez d'accéder n'existe pas ou n'est plus disponible.