Vous êtes ici : Accueil > Ecole CERNA Arcachon: les diaporamas

JUIN 2017: MISE EN LIGNE DU RAPPORT "ETHIQUE DE LA RECHERCHE EN APPRENTISSAGE MACHINE"


Plus d'infos

 

         Photos: Domaine de la dune     ethicaluniform.com                 Domaine de la dune

Ecole éthique du numérique

26 au 30 septembre 2016

Domaine de la dune à Arcachon

 

LES DIAPORAMAS DES PRESENTATIONS

Lundi 26

  • 14h 30 Max Dauchet, Professeur émérite, Université de Lille, Président de la CERNA
    • Présentation de la semaine. Présentation du cahier CERNA "Proposition de formation doctorale, initiation à l'éthique de la recherche scientifique". 
    • Le cahier

 

  • 15h 15 Présentation des participants, leurs attentes, leurs expériences, leurs questionnements

 

  • 16h 15 Ethique, science et transformations de la société. Méthodes d’analyse éthique de projets de recherche : présentation et illustrations dans le champ du numérique. Claire Lobet-Maris et Alexei Grinbaum

 

  •  Claire Lobet-Maris, Professeur, Université de Namur 
    • De l’expertise au récit commun. Une traversée éthique d’un projet technologique. À travers les différents programmes-cadres de l’Union européenne, le statut et la responsabilité des sciences humaines dans les projets de R&D technologique ont évolué. D’une position assez externe et en surplomb où il leur revenait d’évaluer les politiques de R&D ou d’analyser les impacts légaux, sociaux, économiques ou éthiques de certaines technologies, les sciences humaines sont aujourd’hui conviées au « banquet technologique » pour y jouer un rôle d’acteur à part entière. Au centre de cette invitation, il y a la question de l’acceptabilité sociale des choix technologiques. Sous la forme d’un récit narratif, la présentation revient sur l’intervention, située et pragmatique, d’une équipe de chercheurs en sciences humaines dans un projet européen de développement d’un système multimodal de surveillance intelligente
    • Le diaporama "de l'expertise au récit commun"

 

  • Alexei Grinbaum, Chercheur, CEA-Saclay, SPEC/LARSIM
    • Ethique des nouvelles technologies : quelques méthodes de réflexion Le développement des technologies de pointe (nanotechnologies, biologie de synthèse, robotique, apprentissage machine, etc.) pose des questions de société et des questions éthiques. Les débats autour de ces questions semblent souvent éloignés des réalités des laboratoires, or la société y porte un grand intérêt. Sur quelques exemples issus du numérique, je discuterai du lien entre la recherche scientifique et l’interrogation éthique, en mettant l'accent sur deux méthodes de réflexion éthique pour le chercheur : la méthode des scénarii et l'utilisation des récits anciens.
    • Le diaporama "Ethique des nouvelles technologies : quelques méthodes de réflexion" 

 

  • 21h 30 projection du film "Ex machina" et débats

Mardi 27

  • 9h Raja Chatila, directeur de recherche CNRS, ISIR, président du Comité exécutif IEEE de " The Global Initiative for Ethical Considerations in the Design of Autonomous Systems "
    • Ethique de la recherche en robotique. Dans la ligne du rapport CERNA sur le sujet, les questions éthiques liées à la recherche en robotique seront abordées à travers trois contextes d'usages principaux: les robots auprès des personnes et au sein des groupes, les robots médicaux, les robots de défense et de sécurité. Les préconisations formulées selon trois thèmes : l'autonomie et les capacités décisionnelles, l’imitation du vivant et l’interaction affective et sociale avec les humains, la réparation et l’augmentation de l’humain par la machine.
    • Le diaporama "éthique de la recherche en robotique" partie 1
    • Le diaporama "éthique de la recherche en robotique" partie 2

 

  • 17h Danièle Bourcier, Directeur de recherche émérite, CNRS, CERSA, cofondratrice de CreativeCommons France
    • Réfléchir sur le normatif dans la science. Suite à une étude comparative menée par des spécialistes français de l’éthique, la conclusion (en 201 était : « L’éthique n’est pas bien acceptée par les chercheurs en France » . Nous discuterons ensemble de cette assertion qui vise une éthique considérée comme essentiellement « normative ». La présentation générale, qui sera illustrée par des exemples, aura trois objectifs : de délimiter l’ordre du normatif dans la science par rapport à la liberté du chercheur; de comprendre les mots et les concepts comme éthique, droit, morale, déontologie, et aujourd’hui intégrité scientifique;de s’interroger sur la responsabilité du chercheur dans l’élaboration et l’application collective et individuelle de l’éthique. Cette première approche de l’éthique s’appuiera sur l’actualité du domaine (falsification de données, méconduites et plagiat et les solutions éthiques des institutions (comités, chartes, &hellip. Nous prendrons essentiellement comme exemples les questions éthiques liées à l’intégrité, au partage et à la publication des connaissances.
    • Le diaporama "réfléchir sur le normatif dans la science"

 

  • Intervention au nom de l'OPECST de Claude de Ganay, député du Loiret
    • L’Office parlementaire d'évaluation des choix scientifiques et technologiques (OPECS prépare pour le premier trimestre 2017 un rapport relatif à l’intelligence artificielle dont les rapporteurs sont Mme Dominique Gillot, sénatrice (Groupe socialiste et républicain, Val d’Ois et M. Claude de Ganay, député (Groupe Les Républicains, Loiret). Afin d’engager sereinement le débat public, l’OPECST entend mettre en lumière les technologies et les principes de l’intelligence artificielle et se demander comment développer une culture de la responsabilité et une prise en compte des questions éthiques.

Mercredi 28 Journée data

  • 9h 15 Nozha Boujemaa, directeur de recherche Inria, conseillère du président pour le Big Data
    • Le Big Data, opportunité ou risque? Nous commencerons par la définition des "Big Data" et son positionnement avec l'intelligence artificielle en donnant quelques exemples d'impact pour la transformation numérique de nos sociétés. Nous présenterons le périmètre et les piliers des sciences des données inspirés par BDVA (Big Data Value Association qui pilote avec la commission européenne le PPP Big Data). Nous identifierons les défis scientifiques qui restent à lever avec quelques vulnérabilités méthodologiques et applicatives. Ces vulnérabilités amènent à développer des approches responsables et éthiques de traitement et de gestion des données massives. 
    • Le diaporama "Le Big Datan opportunité ou risque?"

 

  • 11h Jean-Gabriel Ganascia, Professeur UPMC et Institut de France, président du COMETS
    • Le partage de données. Avec les progrès des techniques d’apprentissage machine, les très grandes masses de données sont amenées à jouer un rôle clef dans tous les processus de construction de connaissances et de production de richesse. Certains vont même jusqu’à affirmer que les données sont devenues le « pétrole du futur ». Or, aujourd’hui, en ayant recours aux ressources du web, de multiples politique publiques et privées d’acquisition collective et de partage facilitent l’accumulation de données. Il s’agit en particulier du mouvement du partage des données scientifiques consacré par des dispositifs internationaux comme la déclaration de Berlin, des politiques d’ouverture des données (open dat mises en place par les gouvernements visent depuis quelques années à diffuser largement les données acquises grâce à des fonds publics, du mouvement des sciences participatives qui fait collaborer de nombreux amateurs à la production des connaissances scientifiques du recoucrs aux techniques dites de crowdsourcing qui permettent l’acquisition disséminée de très grandes masses de données. Après en avoir fait le tour d’horizon, nous envisagerons les restrictions légales et éthiques formulées au nom du respect de la vie privée, du droit d’auteur, de l’obligation de secret ou de la sécurité.
    • Le diaporama "Le partage de données"

 

  • 17h Guillaume Piolle, enseigant chercheur à CentraleSupélec
    • Usage de données à des fins de recherches. Des domaines de recherche de plus en plus nombreux et variés sont amenés à utiliser des jeux de données de plus en plus riches et de plus en plus facilement accessibles. L'exploitation par le chercheur de ces sources d'information ouvre des perspectives incontestables, tout en soulevant des questions d'ordre éthique relatives à la qualité de ces données, à leur provenance, à la protection des personnes auxquelles elles peuvent se référer... Ces questions seront abordées aux travers d'exemples applicatifs de recherche sur des données du web social, d'imagerie médicale ou en sécurité informatique et protection de la vie privée.
    • Le diaporama "Usage de données à des fins de recherches"

 

  • 18h 15 François Pellegrini, Professeur et vice-ce président délégué au numérique de l'Université de Bordeaux, membre de la CNIL
    • Libertés et éthique du numérique. La révolution numérique, à travers la délégation de plus en plus importante de nos processus intellectuels à des automatismes, transforme nos modes de pensée et notre relation à l'autre. Comme le révèle l'aphorisme "code is law", le logiciel participe à la codification de la norme sociale. Les modes de production, de diffusion et de mise en oeuvre des logiciels et matériels ne sont donc pas éthiquement neutres.
    • Le diaporama "Libertés et éthique du numérique"

 

  • 21h 30 projection d'un film d'interviews et débats: "Plug & pray"

Jeudi 29

  • Matin: Le paysage institutionnel et juridique de l'éthique des sciences et technologies du numérique. Nicole Dewandre, Claude Kirchner et Sophie Vulliet-Tavernier

 

  • Claude Kirchner, directeur de recherche Inria, président du COERLE
    • Aspects éthiques et légaux de la préparation et de la mise en oeuvre des projets scientifiques. Préparer et mettre en oeuvre des projets de recherche scientifique doit s’appuyer systématiquement sur une reflexion éthique explicite et un encadrement légal approprié. Ces deux aspects sont au coeur des missions des comités opérationnel d’éthique, des comités d’évaluation éthique ou des IRB (Institutional review board), en charge de l’aide à la reflexion et de la validation, ou pas, des projets de recherche et des protocoles associés. La présentation, en s’appuyant sur l’expérience des auditeurs et sur des exemples, montrera pourquoi et comment s’appuyer sur les structures de validation des établissements de recherche pour s’assurer des qualités éthiques et légales des recherches mises en oeuvre.
    • Le diaporama "Aspects éthiques et légaux de la préparation et de la mise en oeuvre des projets scientifiques"

 

  • Sophie Vulliet-Tavernier, directrice des relations avec les publics et la recherche, CNIL
    • Protection des données personnelles et recherche : quels enjeux , quelles réponses ? Cette session est consacrée à :- une présentation des enjeux soulevés par l’utilisation des données personnelles à des fins de recherche, des réponses possibles et du contexte international en la matière ; - un rappel du cadre de régulation actuel tant au plan national qu’européen (  relations  CNIL- recherche, notions et principes clés,  « l’ exception recherche » , la démarche d’analyse informatique et  libertés des projets de recherche, le cadre spécifique de la recherche en santé) ,  des évolutions en cours  (loi pour la République numérique, loi santé, reglement européen).
    • Le diaporama "Protection des données personnelles et recherche : quels enjeux , quelles réponses ?"

 

  • Après midi: Artificiel et humain. Nathanaël Jarrassé et Laurence Devillers

 

  • Nathanaël Jarrassé, chercheur CNRS à l'ISIR
    • Transhumanisme, homme augmenté, cyborg... Les médias, sous couvert de relayer les avancées récentes des technologies de réparation du corps, nous abreuvent de ces termes mythologiques ou idéologiques et contribuent à amplifier les fantasmes et à exacerber les passions, que ce soit chez ceux qui idolâtrent la technologie ou chez ceux qui décrient les supposés bouleversements sociétaux et éthiques qu'elle entraîne. A partir d'une présentation de l'état réel des réparations "robotiques" du corps (exosquelettes, prothèses, interfaces cerveaux-machines) et de la réalité des patients appareillés, le but de cette présentation sera d'analyser les questions et enjeux d'éthique liés au développement de ces technologies.
    • Le diaporama "Transhumanisme, homme augmenté, cyborg..."

 

  • Laurence Devillers, professeur à l'Université de Paris IV, LIMSI 
    • L'apprentissage artificiel. L’utilisation de systèmes informatiques fonctionnant à partir d’apprentissage machine, nécessite une réflexion éthique sur les limites et performances des systèmes et amène une rupture technologique et juridique par rapport aux algorithmes classiques paramétrables. Le modèle résultat de ce type d’apprentissage est dû au concepteur de l’algorithme et aux données choisies. Certains de ces algorithmes d’apprentissage machine apprennent également au cours de leur utilisation de façon autonome à partir des données des utilisateurs, de leur environnement ou d’autres programmes. Le modèles obtenus sont dit de type « boite noire » : pour l’utilisateur, il est difficile de savoir ce que le système connaît.  Ces modèles peuvent servir à reconnaître les personnes, les émotions, la parole … à partir d’informations visuelles, auditives et textuelles. Ils peuvent servir à construire des connaissances sémantiques et à prendre des décisions. Comment pourrait-on expliquer d’une certaine manière les connaissances apprises ? ou tout du moins les résultats obtenus ? Quelles règles éthiques pourrait-on préconiser ? Quelles règles juridiques pourraient en découler ?
    • Le diaporama "L'apprentissage artificiel"

Vendredi 30

  • 9h15 Christine Balagué,  titulaire de la Chaire Réseaux Sociaux de Télécom Ecole de Management
    • Gouvernance des algorithmes. Les algorithmes font désormais partie de la vie quotidienne de chaque individu : hiérarchisation des résultats d’une recherche d’information sur Google (pageran, sélection de l’information qui apparaît sur un mur Facebook (Edgerank), optimisation des déplacements, recommandations de produits, détection des pathologies. Nous ne sommes qu’au début d’un tel phénomène, nos vies devenant données et les modèles prédictifs s’appliquant à des champs de plus en plus nombreux. L’algorithmie pose des questions d’éthique pour plusieurs raisons. Tout d’abord, la technique même de l’algorithme peut aboutir à des discriminations interdites par la loi, de par la réintroduction du profilage, désormais sans nécessité d’identification préalable, par simple recoupement de données. Les risques d’enfermement des internautes dans une personnalisation des services en fonction de leurs goûts ou dans des sphères d’opinions supposées posent également problème. Ceci s’oppose au libre épanouissement de l’individu, et participe à une homogénéisation réductrice de l’information, en opposition au pluralisme culturel. L’utilisation massive des algorithmes développe aussi le risque d’une confiance excessive dans les choix préconisés par ces calculs, basés sur des postulats potentiellement faux ou approximatifs, mais susceptibles d’orienter les choix des individus sans que ceux-ci en aient véritablement conscience. Enfin, se pose la question du risque “solutionniste” d’une société qui encourage le recours systématique à des solutions algorithmiques masquant la complexité des enjeux socio-économiques qui requièrent d’autres types d’interventions. Face à cette situation, il est important de rechercher des pistes de réflexion, comme celle d’une régulation imposant la loyauté des algorithmes, ou encore à la mise en place de systèmes permettant de vérifier son opérationnalité, comme par exemple des agences de notation ou un corps d’experts en algorithmes (algorithmistes) mobilisables sur demande d’une autorité de régulation.
    • Le diaporama "Gouvernance des algorithmes"

 

  • 11h debriefing, évaluation