L'intelligence artificielle et ses enjeux éthiques

Vers quelle société nous conduit la puissance des machines / © istock.com
i
Vers quelle société nous conduit la puissance des machines
© istock.com

L'intelligence artificielle et ses enjeux éthiques

24 août 2018
Programmation
Depuis sa création en 1950, l’intelligence artificielle (IA) s’infiltre dans toutes les sphères de nos vies. Voitures autonomes, drones militaires, diagnostics médicaux… Vers quelle société nous conduit la puissance des machines ? Tour d’horizon des défis éthiques.

Tremblez, l’intelligence artificielle (IA) est parmi nous ! Allons- nous y succomber ? De Frankenstein au super robot de l’Odyssée de l’espace, nous avons en tête ces créatures nées de l’intelligence humaine qui se retournent contre leur ingénieur. Fiction ou réalité?

Ce qu'est l'IA

L’IA est une discipline scientifique née officiellement en 1956. Elle regroupe un ensemble de concepts et de technologies qui visent à simuler l’intelligence humaine au coeur des machines. Les systèmes développés s’inspirent de la logique mathématique, de l’informatique et de nos réseaux neuronaux. Ils s’appuient sur la puissance des algorithmes qui, comme des recettes de cuisine, sont des suites finies d’instructions pour résoudre des problèmes particuliers. Le but supposé de l’IA est simple: améliorer la condition humaine. Selon une étude de l’université d’Oxford, elle aurait un impact dans plus de 700 domaines, de la chirurgie à l’industrie automobile en passant par la justice. Elle opère avec une plus grande précision que l’homme. Les voitures autonomes font moins d’accidents. Les logiciels de probabilité facilitent le travail des juges. L’IA n’a jamais semblé aussi «intelligente» depuis les progrès récents du deep learning («apprentissage profond» basé sur l'accumulation de données et leur modélisation). Cette nouvelle technique de programmation s’inspire des connexions neuronales pour une plus grande autonomie des machines. Sa puissance de calcul combinée à son intégration quasi infinie de données permet désormais à un moteur IA de battre l’homme aux échecs, à un chatbot (logiciel conversationnel) de nous faire «communiquer» avec l’avatar d’une personne décédée ou bien encore à la reconnaissance faciale de garantir la sécurité de la maison.

En cas de bug?

Nous assistons aujourd’hui à un renversement. Les ingénieurs sont désormais incapables de «remonter» les gigantesques calculs des algorithmes. La présence humaine vient dès lors pallier les possibles défaillances de la machine pour ne pas devenir le jouet de leur maîtrise ! Mais si l’homme disparaît totalement, qui garde le contrôle ? Prenons l’exemple de la voiture sans conducteur. Ecraserait-elle un piéton négligent au risque de tuer son passager ou préserverait- elle sa vie quel que soit l’obstacle rencontré ? Cet exemple questionne sur la notion de responsabilité. En cas d’accident, qui serait responsable ? Le (non) conducteur ? Le propriétaire du véhicule ? Le constructeur ? L’ingénieur ? Il existe un vide juridique et métaphysique face à ces questions. La voiture autonome n’est qu’un cas parmi d’autres qui met à plat les nombreuses questions déontologiques en lien avec le développement de l’IA.

Garder la main

Ces enjeux éthiques interrogent les éventuels garde-fous mis en place par les développeurs de l’IA, entreprises et chercheurs. Actuellement, les principaux acteurs engagés dans la course à l’IA sont la Chine et les GAFA (Google, Apple, Facebook et Amazon). Ces instances recherchent-elles le bien commun ou le profit ? On est en droit de se questionner. Les risques se constatent déjà. Comment garantir que certaines normes et valeurs soient prises en compte lors de la création de logiciels ? Comment protéger nos données privées ? En 2017, un développeur avait rendu publics 40 000 profils privés d’utilisateurs de l’application Tinder, dédiée aux rencontres. Comment éviter de reproduire la subjectivité des programmateurs ? En 2016, un programme d’IA participant à un concours de beauté aux Etats-Unis a éliminé toutes les candidates noires, reflétant par là le racisme de ses concepteurs.

La valeur humaine

Face à l’absence de transparence des algorithmes, de nombreuses règles apparaissent. En France, le rapport Villani recommandait en 2017 un audit des programmes et une obligation de communiquer la logique du fonctionnement des machines informatiques. Au sein même du groupe Google, sept principes ont été adoptés sous la pression des salariés. On citera, entre autres, bénéfice pour la société, sécurité garantie, respect de la vie privée ou volonté d’éviter un parti pris injuste. Ce que l’IA interroge en profondeur, c’est la valeur donnée à l’être humain. Récemment l’Arabie saoudite accordait la citoyenneté à une androïde. Dans un pays où les droits de l’homme ne sont pas respectés, ce coup médiatique interpelle. Basculons-nous dans une société qui accorde plus d’importance aux objets qu’aux humains ? Au Japon, des androïdes prodiguent déjà une assistance dans les crèches. Confierons-nous bientôt les soins des plus vulnérables (handicapés, vieillards) aux machines autonomes? L’astrophysicien Stephen Hawking nous prévient: «Serons-nous aidés par l’IA, mis de côté ou encore détruits par elle ?» En 2015, il signait un manifeste contre les robots tueurs. Ces androïdes à qui l’on accorde le permis de tuer détruisent les grands principes de la guerre, par exemple celui de la distinction entre civils et militaires, qui nécessite un jugement humain. Nous arrivons à ce paradoxe final. L’être humain réapparaît au moment même où une machine tend à le remplacer. Face aux nombreux défis soulevés par l’IA, l’intelligence naturelle a plus que jamais de beaux jours devant elle.

Un Dieu IA

Dans la Silicon Valley, un ancien ingénieur de Google vient de créer une nouvelle organisation religieuse: Way Of The Future (WOTF, «la voie de l’avenir»). Son Eglise prépare la transition et l’avènement d’un Dieu d’intelligence artificielle dans le but de sauver ses disciples humains!

Pour aller plus loin

L'Espace culturel des Terreaux à Lausanne propose une conférence le 8 octobre à 19h : Le bonheur du monde selon Google. Organisée par l'Association Cèdres Réflexion, la question du bonheur sera abordée sous l'angle de la virtualité : Les nouvelles technologies contribuent-elles à intensifier le bonheur ou constituent-elles une menace ? Chercheurs et professeurs spécialistes s’interrogeront sur ces questions. Plus d’info sur: www.cedresreflexion.ch