top of page

Intelligence artificielle restreinte et générale – IA #1

Un véritable coup de tonnerre éclate à Séoul en Mars 2016 : AlphaGo, l’Intelligence Artificielle conçue par DeepMind, une filiale britannique de Google, bat à plate couture l’un des tous meilleurs joueurs de go de la planète, le Coréen Lee Sedol. L’événement est historique pour l’intelligence artificielle, car le jeu de go (inventé en chine il y a environ 3000 ans) qui couple tactique combinatoire abstraite et intuition stratégique de haut vol, était considéré comme le Graal de l'IA... Un cap technologique et humain a-t-il été dépassé ? Beaucoup se posent la question.


Lee Sedol a probablement participé à un événement historique dans sa confrontation avec l'intelligence artificielle AlphaGo

Le nombre de combinaisons possibles au go (10 puissance 170) surpasse de très loin le nombre d’atomes estimés dans l’Univers observable (10 puissance 80). Dans une telle « infinité » de configurations, un programme informatique ne peut pas passer en revue toutes les possibilités pour prendre la bonne décision. La solution envisagée par les ingénieurs de DeepMind a été d’apprendre à AlphaGo à imiter les concepts tactiques et stratégiques des maîtres de go. Pour ce faire, Ils ont eu recours à la technologie du Deep Learning (l’apprentissage profond) et alimenté AlphaGo de milliers de parties de référence.


Une défaite symbolique, des fantasmes et un objectif

Extrêmement médiatisée, la défaite de Lee Sedol face à AlphaGo a fait l'objet de nombreux commentaires passionnels partout dans le monde. Beaucoup y ont vu le signe de l’avènement prochain d’une super-intelligence artificielle supplantant l’intelligence humaine dans tous les domaines (une sorte d'IA générale ou IA forte), avec tout le cortège de fantasmes et de peurs que cette prédiction peut engendrer. Pour les élites mégalomaniaques comme Raymond Kurzweil, directeur de l'ingénierie à Google, cette IA pourrait collaborer et améliorer la condition humaine pour donner naissance à l'homme augmenté. Pour d'autres, nettement plus pessimistes, une intelligence artificielle de ce type mettrait fin à l'humanité...

Pour démystifier l'IA, nous vous proposons sur ce blog une série d'articles qui vous donneront une idée de ce qu'est réellement l'intelligence artificielle. Vous y découvrirez pourquoi une IA générale ou forte n'a aucun fondement scientifique, du moins en l'état actuel de la science. Et vous serez invité à vous interroger aussi, sur les dangers de l'intelligence artificielle actuelle (IA dite restreinte ou faible car pour le moment toujours experte dans un seul domaine donné) et sur les périls insidieux des algorithmes qui sévissent dans les applications que nous utilisons au quotidien.

Une conscience nulle et un sens commun approximatif

Pour commencer rappelons que l'IA a une intelligence... toute relative. En effet, malgré une capacité surhumaine à jouer au go, AlphaGo ne sait pas qu'il sait... jouer au go ! L'IA est complètement dépourvue de réflexivité, prérequis fondamental à la construction d'une conscience élaborée. Conséquence, les meilleurs systèmes d'intelligence artificielle ne comprennent pas ce qu'ils calculent, ni ce qu'ils infèrent ou prédisent... Ils éprouvent ainsi beaucoup de difficultés à comprendre la communication humaine, basée sur l'implicite, la contextualisation et le sens commun.

Terry Winograd, professeur d'informatique à l'université de Stanford, propose dès 1972 une série de défis centrés sur la difficulté du sens commun, appelés « schémas de Winograd » : des questions simples formulées en langage naturel, mais de façon ambiguë. Pour répondre à ces questions, il est nécessaire d'avoir des connaissances du monde réel. Par exemple, si l'on demande à une IA, « Il y a du savon dans le siphon de la douche. Faut-il le retirer ? », elle doit savoir ce qui se cache derrière le « il » : le savon ou le siphon de la douche ? C'est ce que l'on appelle un problème de désambiguïsation du pronom. L'intelligence artificielle peine à résoudre les schémas de Winograd, alors qu'ils sont faciles à élucider pour les humains !

Personne aujourd'hui n'est en mesure d'affirmer que l'intelligence humaine repose sur cette notion de sens commun. Mais, ce qui est certain, c'est qu'elle en est l'un des éléments constitutifs. Le sens commun faisant cruellement défaut à l'IA, comment peut-on alors qualifier ces systèmes d' « intelligences » artificielles ? À mal nommer les choses, ne gonfle-t-on pas inutilement les peurs et les chimères ? Qu'on se le dise une bonne fois pour toutes : les IA ne sont pas intelligentes, elles ne font qu'imiter l'intelligence... il est vrai, de manière plus que parfaite dans certains domaines, comme le jeu de go ou, plus utile et important, l'aide au diagnostic médical.


L'IA nous est d'une aide précieuse dans le diagnostic médical et le sera de plus en plus : une IA développée au MIT a prédit 4 ans avant (à gauche), l'apparition d'un cancer du sein chez une patiente à risque (à droite). L'IA va améliorer le dépistage des maladies graves

L'IA générale n'est pas pour demain et l'IA restreinte pose déjà problème

Les intelligences artificielles réalisent des prouesses extraordinaires mais sans aucune compréhension des tâches qu'elles exécutent, faute de conscience. Et les chercheurs sont d'accords pour dire que ce n'est pas en augmentant les capacités de calcul des processeurs que l'on ira plus loin dans l'implémentation d'une conscience à l'intérieur d'une machine : la naissance d'une IA générale va nécessiter un changement d'approche (la fameuse rupture épistémologique chère à Gaston Bachelard), basé probablement sur un mélange de sciences du vivant (le seul endroit où l'on trouve aujourd'hui de la conscience) comme la biologie ou la biochimie, de sciences informatiques et peut-être de mécanique quantique... Il n'est pas exclu que cela se produise un jour, mais ce n'est pas pour demain.

On voit alors mal comment une IA sans conscience – dépourvue donc d’ego, de subjectivité et d'intentionnalité propres – pourrait d'elle-même, décider d'asservir l'humanité... Le danger n'est pas à chercher du côté de la machine, mais bien de celui de l'homme (comme toujours). Cela est d'autant plus vrai, que les IA restreintes des GAFAM s'appliquent déjà à créer une dépendance forte (recherchée par leurs concepteurs) lorsque nous naviguons sur le web, via des algorithmes de collecte de données personnelles, d'historisation de navigation, de profilage. Google et Facebook savent exactement qui nous sommes et ce que nous aimons !... Dans quelle mesure façonnent-ils nos choix, nos goûts et notre manière de penser ? La question se pose vraiment... Aussi, dans ce terrain fortement miné, il devient crucial d'être conscients, acteurs et critiques de la relation que nous entretenons avec Internet et nos téléphones mobiles pour ne pas tomber dans la manipulation pure et simple, l'addiction ou l'esclavage numérique.

Sources :



Une vidéo de Cyrus North qui explique clairement pourquoi une intelligence artificielle ne peut pas (en tous cas aujourd'hui) composer un opéra

bottom of page