Vous êtes ici : Accueil > journée apprentissage

Des dirigeants d'institutions scientifiques, dont la CERNA, ont publié le 14 décembre dans le Monde une tribune intitulée « Il faut créer un comité national d'éthique du numérique ». Ce document est posté comme contribution au débat lancé par Cédric Villani dans le cadre de sa mission sur l'IA LIRE ICI

 

 

Apprentissage et Intelligence Artificielle: les vraies questions éthiques

lundi 13 juin 2016

 

Les techniques d'apprentissage machine, important domaine de recherches en intelligence artificielle, sont étudiées depuis des années, mais elles ont récemment fait une irruption spectaculaire dans les médias grâce à la victoire d'AlphaGo, programme de la société Google DeepMind, sur le champion du monde de Go, Lee Sedol. Demis Hassabis, co-fondateur de cette société, affirme que l'apprentissage par renforcement (une technique utilisée dans les programmes informatiques qui s'adaptent en fonction de leurs échanges avec l'environnement) va révolutionner le monde.

Un groupe de travail sur l'intelligence artificielle vient d'être créé à la CERNA afin d'apporter un éclairage pour les experts et le grand public sur les problèmes éthiques posés par l'apprentissage machine. Ces travaux seront évoqués lors de la journée du 13 juin.

Le programme et les slides présentés

 

  • 9h 30 - 10h Laurence Devillers, Professeur, Paris-Sorbonne, LIMSI
    • Présentation de la journée et du travail de la CERNA sur le sujet                          
    • L’utilisation de systèmes informatiques fonctionnant à partir d’apprentissage machine, nécessite une réflexion éthique sur les limites et performances des systèmes et amène une rupture technologique et juridique par rapport aux algorithmes classiques paramétrables. Le modèle résultat de ce type d’apprentissage est dû au concepteur de l’algorithme et aux données choisies. Certains de ces algorithmes d’apprentissage machine apprennent également au cours de leur utilisation de façon autonome à partir des données des utilisateurs, de leur environnement ou d’autres programmes. Le modèles obtenus sont dit de type « boite noire » : pour l’utilisateur, il est difficile de savoir ce que le système connaît.  Ces modèles peuvent servir à reconnaître les personnes, les émotions, la parole … à partir d’informations visuelles, auditives et textuelles. Ils peuvent servir à construire des connaissances sémantiques et à prendre des décisions. Comment pourrait-on expliquer d’une certaine manière les connaissances apprises ? ou tout du moins les résultats obtenus ? Quelles règles éthiques pourrait-on préconiser ? Quelles règles juridiques pourraient en découler ?

Slides de la présentation de Laurence Devillers

  • 10h - 11h 15 Milad Doueihi, chaire d'humanisme numérique, Paris-Sorbonne; chaire des Bernardins "l'humain au défi du numérique".
    •  L’apprentissage entre pensée et intelligence                                                              
    • Retour sur les textes d’A Turing et de J von Neumann afin de mieux saisir les modèles comparatifs dans la conception de l’apprentissage informatique et la manière dont ses modèles façonnent toujours l’imaginaire de l’intelligence (informatique) et les conceptions de l’apprentissage automatique.

Résumé et références de la présentation de Milad Doueihi disponibles ultérieurement

  • 11h 15 - 12h 30 Tristan Cazenave, professeur Paris-Dauphine, LAMSADE
    • Apprentissage et jeux                                                                                               
    • Nous reviendrons sur le deep learning et la recherche Monte-Carlo qui ont permis des avancées importantes en intelligence artificielle pour les jeux. Nous verrons aussi les différentes applications possibles de ces algorithmes d'apprentissage

Slides de la présentation de Tristan Cazenave

  • 14h - 15 h 15 Benoît Girard, directeur de recherche CNRS, ISIR
    • Apprentissages multiples, substrats neuronaux et modèles                                  
    • L'apprentissage n'est pas un processus monolithique: plusieurs grandes classes d'apprentissage ont été très tôt identifiées en intelligence artificielle (non-supervisé, supervisé, par renforcement). Du côté des neurosciences, plusieurs travaux théoriques attribuent ces classes d'apprentissage à des grandes régions distinctes du cerveau. Le cas de l'apprentissage par renforcement est particulièrement intéressant, puisque, là où l'IA a identifié plusieurs classes d'algorithmes, les neurosciences ont identifié des modes comportementaux et des substrats neuronaux distincts qui semblent leur correspondre. Cette convergence dresse le tableau d'un apprentissage multiple et distribué dans le cerveau, et nourrit également la conception d'architectures d'apprentissage artificiel.

Slides de la présentation de Benoît Girard

  • 15h 15 -16 h 30 Jean-Baptiste Mouret, chercheur Inria, Equipe Larsen
    • Adaptation Créative par Évolution                                                                                  
    • Les robots quittent progressivement les usines pour fonctionner en autonomie dans des environnements plus naturels et plus complexes. En effectuant cette mutation, ils rencontrent inévitablement des situations que personne n'a anticipé. Alors que les animaux peuvent s'adapter rapidement à beaucoup de ces situations, les robots actuels ont des difficultés à être créatifs quand c'est nécessaire : ils sont limités par les hypothèses faites par leur concepteurs. Dans nos travaux, nous cherchons à capturer la créativité de l'évolution darwinienne pour rendre les systèmes artificiels plus créatifs dans les situations non anticipées. Notre projet a commencé avec des questions sur comment permettre à un logiciel de découvrir des nouveaux comportements intéressants et surprenants ; il a récemment abouti à démonstration d'un robot "insecte" à 6 pattes capable de réapprendre à marcher en moins de 2 minutes après un dommage (par exemple, la perte d'une patte).

Slides de la présentation de Jean-Baptiste Mouret

  • 16h 30 - 17h 30 Table ronde avec les intervenants de la journée
    • Intelligence forte: fantasme ou perspective ?                                                                  La perspective d'une intelligence artificielle "dépassant l'intelligence humaine" suscite débats et déclarations médiatiques, sans que l'on sache ce que veut dire "dépasser" ou "intelligence humaine". Cette éventualité est-elle scientifiquement fondée? A-t-elle même un sens? Peut-on en débattre en ignorant tout des technologies et principes sous-jacents? Agiter de telles idées ne risque-t-il pas de détourner notre vigilance des véritables questions éthiques?