Une créature qui se rêve créatrice

Une créature qui se rêve créatrice / ©iStock
i
Une créature qui se rêve créatrice
©iStock

Une créature qui se rêve créatrice

Evolution
L’histoire de l’intelligence artificielle en dit autant sur l’avancée des techniques que sur la perception que l’humanité a d’elle-même.

L'ère des philosophes

Le cerveau ne serait-il qu’une mécanique bien huilée? De ce questionnement est née l’envie de reproduire une telle machine. Bien avant l’ère de l’informatique – et avant même que le cerveau soit reconnu comme le siège de la pensée –, ce sont les philosophes qui ont été les premiers à conceptualiser la pensée comme un enchaînement logique. Aristote (384-422 av. J.-C.) écrit un ensemble de syllogismes produisant des raisonnements. On peut tirer une conclusion valide à partir de prémisses données en suivant «mécaniquement» sa logique.

Le franciscain Raymond Lulle (~1232-1315) tente de convaincre les musulmans d’embrasser le christianisme en se servant des outils développés par les savants arabes: algèbre, symbologie, logique. Il a tenté de modéliser son raisonnement sous la forme d’un engrenage de roues en papier. Il est aussi l’auteur d’Ars magna: compendiosa inventendi veritam (Le Grand Art: Découverte concise de la vérité). Sur le fond, son modèle déductif reste proche de l’enseignement savant du Moyen Age combinant philosophie grecque et théologie chrétienne (saint Augustin, Thomas d’Aquin, Roger Bacon…).

Au XVIIe siècle, différentes conceptions s’affrontent. Thomas Hobbes suggère que la réflexion est similaire au calcul numérique là où René Descartes différencie l’humain de l’animal par le fait que ce dernier n’aurait ni âme ni pensée. Il compare l’animal à une simple machine réagissant automatiquement à des stimuli. S’il considère que certaines structures de pensée sont innées, John Locke défend de son côté l’idée qu’«il n’y a rien dans l’entendement qui n’ait d’abord été dans les sens». Au XVIIIe siècle apparaissent les sciences économiques, avec Adam Smith en particulier. Ce domaine nouveau apporte les premières modélisations mathématiques des prises de décision d’un collectif. 

Il n’y a rien dans l’entendement qui n’ait d’abord été dans les sens
John Locke

L'ère informatique

Les premiers ordinateurs voient le jour durant la Seconde Guerre mondiale. Des équipes en Allemagne, au Royaume-Uni et aux Etats-Unis posent les bases de l’informatique et construisent les premiers ordinateurs électromécaniques ou à base de tubes à vide. On est loin du microprocesseur, mais les premières modélisations mathématiques d’un neurone artificiel et les premiers réseaux de neurones (voir infographie) sont imaginés en 1943.

Dès 1947, Alan Turing – le génie qui durant la guerre a construit une machine capable de décoder les messages que se transmettait l’Allemagne nazie à l’aide d’Enigma – présente les bases de l’intelligence artificielle dans une série de conférences. Dans une publication de 1950, il mentionne déjà les grandes méthodes d’intelligence artificielle que sont l’apprentissage automatique, l’apprentissage par renforcement et les algorithmes génétiques. Il y théorise même ce qu’on appelle aujourd’hui le test de Turing, selon lequel une intelligence artificielle est égale à une intelligence humaine si une personne ne parvient pas à déterminer lequel des deux interlocuteurs avec lesquels on la met en interaction est humain. Une période d’euphorie naît dans les années 1950, mais la puissance de calcul alors disponible est insuffisante. Diverses méthodes moins gourmandes en ressources sont inventées, comme le recours à des formules statistiques ou le codage manuel de certaines fonctions d’un domaine d’expertise particulier auquel est destinée une intelligence artificielle. Mais après de nombreuses promesses et autant d’échecs, les financements pour la recherche dans l’intelligence artificielle s’amenuisent dès 1975.

L'ère des données

Des ordinateurs plus puissants, l’apparition de puces telles que les cartes graphiques facilitant certains types de calcul et surtout, grâce à l’apparition du web, la création de grandes bases de données, par exemple d’images disposant de leur description textuelle, permettent un regain d’intérêt pour les réseaux de neurones dès la fin des années 1990. En raison du nombre fou de données qu’il faut pour entraîner un réseau, on limite alors la taille de ces derniers et l’on applique des prétraitements programmés de manière traditionnelle aux données que l’on insère dans un réseau de neurones. Mais la qualité et la quantité de données augmentent régulièrement et au tournant des années 2010 des modèles composés uniquement de réseaux de neurones artificiels de grandes tailles (deep learning) commencent à gagner des concours de reconnaissance automatique d’images. Des bases de données représentant les mots et les concepts à l’aide de séries de valeurs numériques (vecteurs) voient le jour. Sur l’un des modèles fréquemment utilisés, chaque mot est codé sur 300 nombres et chaque pensée sur 1000 .

L’acquisition de données fiables et objectives devient un véritable enjeu pour programmer les intelligences artificielles. Pour chaque paramètre supplémentaire introduit dans le réseau, il faut accroître le nombre de données pour l’entraînement. On imagine alors la quantité d’informations dont il faut disposer pour entraîner un modèle comme ChatGPT-4, qui annonce pas moins de 1000 milliards de paramètres.

Par ailleurs, les réponses des intelligences artificielles restent basées sur un principe statistique: leur proposition est plausible et non vérifiée. Les biais idéologiques des bases utilisées pour l’entraînement peuvent également ressortir lors de l’utilisation du modèle.

L'ère de la création

Certains experts ont été soufflés par l’arrivée si rapide des intelligences artificielles génératives. Jusqu’à récemment, on n’imaginait pas un modèle capable de créer une image sur la base de texte libre, comme le font Midjourney ou Dall-E, avant 2030. En ce qui concerne la génération d’images, plusieurs modèles ont vu le jour, par exemple en entraînant deux intelligences artificielles simultanément, l’une à détecter les images générées par les IA, l’autre à générer des images sur un thème donné. L’entraînement consiste à opposer la seconde à la première avec une base de données. Une autre méthode consiste à entraîner un réseau de neurones à retirer le bruit d’une image dont on fournit également la légende (comme enlever la neige que l’on voyait sur les anciennes télés). Petit à petit, on parvient à percevoir des formes nettes en demandant à l’intelligence de débruiter des images qui ne sont en fait que pur bruit. Un peu comme si l’on regardait les nuages en disant «trouve-moi un cheval». Le pire, c’est que dans le cas des intelligences artificielles… ça fonctionne.

Outre la quantité d’informations nécessaires, l’entraînement de ces modèles requiert des semaines de calculs intensifs. Et c’est extrêmement énergivore, même si les entreprises concernées ne communiquent que peu à ce sujet. Par contre, une fois entraînées, les intelligences artificielles ne seraient plus si gourmandes en énergie.

Les émotions sont des calculs spécifiques qui ont évolué pour signaler des dangers ou des opportunités
Stanislas Dehaene

L'ère de l'émotion

«En sciences cognitives, on ne fait plus la distinction entre cognition et émotion. Nous pensons que les émotions sont des calculs spécifiques qui ont évolué pour signaler des dangers ou des opportunités utiles à l’organisme», déclare le neuropsychologue Stanislas Dehaene dans La plus belle histoire de l’intelligence, un livre d’entretiens avec le spécialiste du deep learning Yann Le Cun (Robert Laffont, 2018). Si les émotions sont des calculs, la prochaine étape de l’intelligence artificielle sera-t-elle de les modéliser? L’avenir nous le dira.