«Une nouvelle condition humaine»

Sophia, développé par l’entreprise chinoise Hanson Robotics, a été le premier androïde à obtenir une pseudo «citoyenneté» saoudienne en 2017. / © CC(by) ITU - R Farrell
i
Sophia, développé par l’entreprise chinoise Hanson Robotics, a été le premier androïde à obtenir une pseudo «citoyenneté» saoudienne en 2017.
© CC(by) ITU - R Farrell

«Une nouvelle condition humaine»

Marotte
Le numérique et notamment l’intelligence artificielle posent des défis profonds sur le plan éthique. Un congrès revenait sur le thème en septembre dernier.

Il ne se passe plus une semaine sans que la notion d’intelligence artificielle (IA, voire encadré) ne s’invite dans notre quotidien: éducation, informatique, médecine, droit, comptabilité…: tous les domaines sont en passe d’être repensés. Les cadres sont sommés de se former. Aussi, les congrès et réunions thématiques sont-ils légion. En septembre dernier, c’était le tour des associations romandes des professionnels en ressources humaines (HR sections romandes), lors d’une journée dédiée à l’Université de Lausanne. Que retenir des enjeux éthiques que pose aujourd’hui cette technologie ?

Un monde nouveau

D’abord, constater qu’elle a généré un monde nouveau, le «capitalisme numérique» comme l’explique l’entrepreneur Laurent Alexandre, caractérisé par une constante: l’inattendu –par exemple l’essor, ces dix dernières années de technocratures et d’un capitalisme de surveillance. Mais aussi, l’augmentation des écarts de rémunération, de compétences: de plus en plus se dessine un monde à deux vitesses, entre ceux qui créent et maîtrisent ces nouvelles technologies, et ceux qui n’en perçoivent pas les enjeux.

Des valeurs à repenser

Ensuite, comprendre que l’IA implique «une nouvelle condition humaine», explique Jean-Gabriel Ganascia, philosophe, chercheur et intelligence artificielle et président du comité d’éthique du CNRS. Dans ce monde nouveau, l’amitié «ne se définit plus comme Aristote le faisait dans l’Ethique à Nicomaque, mais elle est évidemment réinventée par les réseaux sociaux», explique Jean-Gabriel Ganascia, philosophe et président du comité d’éthique du CNRS. C’est toute une série de valeurs qui doivent aujourd’hui être repensées. Que devient la confiance à l’ère de la blockchain? Le travail physique, à l’heure où les capacités cognitives deviendront déterminantes, associées à l’IA? La réputation, lorsqu’elle peut faire l’objet d’un score mesurable comme en Chine?

Un trilemme irrésolu

Ces questionnements individuels se superposent à des interrogations politiques. L’un des principes clés qui guide nos régimes politiques depuis des siècles, la souveraineté, est aujourd’hui sérieusement battu en brèche par les grands acteurs des nouvelles technologies. Facebook refuse, par exemple, toujours de fournir au Parlement britannique le détail des publicités ciblées qui ont été publiées sur le réseau durant la campagne du Brexit.

L’encadrement des outils du numérique pose des défis inédits. Problème, observe le philosophe, «il existe déjà 67 principes que l’IA devrait respecter, émis par une série de comités d’éthiques dans le monde». Le souci? Ils sont contradictoires. Tout le monde s’accorde à dire que vie privée, transparence, et sécurité sont des termes légitimes. Or, «ils sont tous en tension les uns avec les autres», créant un véritable «trilemme» éthique. Des compromis s’imposeront nécessairement, estime Jean-Gabriel Ganascia. Reste à savoir si citoyens ou salariés seront capables de les produire. Ou ne feront que les subir.

Une définition L’intelligence artificielle (IA) est une discipline scientifique qui vise à reproduire et modéliser les disciplines cognitives humaines (perception, raisonnement, apprentissage…) par des machines, pour des applications pratiques, selon Jean-Gabriel Ganascia. Sa définition se fonde sur l’histoire de l’IA, domaine fondé par de jeunes chercheurs de Dartmouth College (New Hampshire, Etats- Unis) en 1955.