Le podcast hélicoïdal

Rationalisme et Empirisme

Portraits côte à côte de Gottfried Wilhelm Leibniz et John Locke, peinture à l'huile.

Gottfried Wilhelm Leibniz par Christoph Bernhard Francke, fin du 17è siècle ; John Locke par Godfrey Kneller, 1697

Ce n’est que depuis le milieu des années 2010 que la recherche sur l’intelligence artificielle prend une tournure véritablement appliquée, à grande échelle ; jusque là le développement du perceptron et de l’IA est surtout fait dans un objectif d’accumulation des connaissances sur le fonctionnement de l’esprit. Le problème qui se pose une fois la machine fabriquée, c’est qu’on ne comprend toujours pas ce qui se passe, ni dans la machine nouvelle, ni dans l’esprit humain. Est-ce un problème d’interprétation, le perceptron est-il un bon modèle de la perception humaine et de l’intelligence ?

Comme souvent, la recherche ouvre autant de questions qu’elle en résout.

La controverse philosophique

L’opposition entre les deux branches de l’informatique et de la conception de l’intelligence artificielle, programmée, logique et déterministe d’un côté, statistique et basée sur l’apprentissage de l’autre, peut être rapprochée du débat philosophique plus ancien, du siècle des lumières, à propos de l’esprit, des connaissances et de l’intelligence. La philosophie rationaliste1, symbolique, considère que la connaissance est un fait inné, qui se révèle avec le raisonnement et la logique, tandis que la philosophie empiriste2, connexionniste, considère que la connaissance et l’esprit naissent de l’expérience sensible.

Le rationalisme postule notamment l’existence de principes logiques universels, tels que le tiers exclu3 qui nous dit que soit une proposition est vraie, soit sa négation est vraie, sans intermédiaire entre ces deux états4 ; ou encore comme le principe de raison5 suffisante qui nous dit que rien n’arrive sans cause, ce qui permet par ailleurs la prédiction d’un effet. De ces règles a été développée la logique mathématique et symbolique à la base des langages de programmation6 en informatique et des intelligences artificielles symboliques. Le rationalisme, en particulier celui de René Descartes mais aussi Immanuel Kant, postule aussi l’existence d’idées, innées et a priori, telles que le temps, l’infini, les nombres, etc. sur lesquelles la raison peut s’appuyer, et sans lesquelles l’expérience sensible resterait inintelligible.

L’empirisme de son côté nie l’existence de connaissances purement rationnelles et a priori, postulant que la source première de la connaissance est dans l’expérience. Les concepts y sont issus de l’expérience et d’associations d’idées, il n’y a pas d’idée innée et l’esprit à la naissance est une table rase. L’empirisme accompagne la naissance de la science moderne au 17è siècle caractérisée particulièrement par la méthode expérimentale. En ne programmant aucune règle logique dans les intelligences artificielles statistiques, à base d’apprentissage automatique, en les laissant inférer des règles à partir de l’expérience et de l’accumulation de données, on donne corps via l’informatique à cette idée d’empirisme7.

Programmer ou entraîner

Dans les années 2020, période déjà qualifiée en 2024 de grand boom de l’IA, la dénomination I.A. commence à être utilisée à toutes les sauces, recouvrant aussi bien des méthodes purement symboliques, analytiques et logiques, que différentes méthodes connexionnistes, d’apprentissage profond et d’apprentissage machine, mais aussi (et surtout) des méthodes hybrides, mais sans réelle possibilité d’accès au détail du fonctionnement pour l’utilisateur, le champ étant d’ores et déjà accaparé par de grandes entreprises protégeant jalousement leurs secrets industriels (et en partie financées par les armées).

Il y a là deux approches complètement différentes de la résolution de problèmes assistée par l’informatique. D’un côté, la méthode rationaliste, symbolique et analytique, implique pour son implémentation une parfaite connaissance du problème à résoudre par l’humain qui la conçoit, avant sa mise à disposition du public ; elle met au défi l’intelligence humaine pour dicter et donner à la machine les règles du problème et lui en donner une connaissance « innée ». De l’autre côté, si la conception de machines pouvant gagner en expérience et résoudre les problèmes de manière empirique, sans aucune connaissance préalable, est aussi un défi pour l’intelligence humaine, l’usage de ces machines pour la résolution des problèmes résulte plus de la force brute, sans réelle nécessité de compréhension approfondie, laissant l’humain dans son ignorance, sans la moindre analyse, déléguant l’intelligence et l’expérience à la machine8.

Par cette constatation, on lève ici le voile sur un véritable philosophique que nous allons pouvoir approfondir dans les textes qui suivent. Trois siècles plus tard, la science a compris que le cerveau humain a un fonctionnement ni tout à fait empirique, ni tout à fait rationaliste. Si la plupart de nos connaissances viennent effectivement de l’expérience et de l’apprentissage, de la culture au sens large, le cerveau est « pré-câblé » et déjà prêt dès les premiers instants de son développement à se spécialiser dans certaines tâches, que ce soient des tâches de bas niveau comme la vision ou que l’on considère de haut niveau comme le langage. On peut donc considérer que si l’empirisme pose les bases de la science moderne, de l’expérience et de la méthode scientifique, les rationalistes n’avaient pas tort de considérer que certains concepts peuvent être pré-existant à l’expérience ; c’est d’ailleurs une difficulté notable dans certains domaines scientifiques9 de réussir à se détacher d’une vision anthropocentrique du monde.

  1. Dont la source se situe chez Aristote, mais véritablement née avec René Descartes, Baruch Spinoza et Gottfried Wilhelm Leibniz avant d’être revue par Immanuel Kant. ↩︎
  2. Conceptualisée par Francis Bacon et approfondie entre autres par Thomas Hobbes, John Locke, Voltaire, David Hume↩︎
  3. Tertium non datum, introduit par Aristote en complément du principe de non-contradiction, qui nous dit qu’une chose ne peut être à la fois vraie et fausse. ↩︎
  4. Par exemple, Socrate est soit vivant soit mort, sans autre solution possible. Il faudra attendre la découverte des états quantiques pour comprendre que ce postulat n’est pas tout à fait universel. ↩︎
  5. On peut faire remonter des traces de ce principe à Aristote, mais c’est Leibniz qui l’a clairement formalisé au 17è siècle. ↩︎
  6. En particulier avec le travail de Georges Boole, créateur de la logique moderne, fondée sur une structure algébrique et sémantique, que l’on appelle algèbre de Boole en son honneur. ↩︎
  7. Notons qu’on prouve accessoirement la nécessité de la logique innée et a priori, et de ses règles les plus élémentaires, encodée au sein même des neurones, d’une certaine manière comme le rationalisme le prévoit. ↩︎
  8. Il existe d’ailleurs tout un champ de recherche dont le but est de comprendre comment les IA basées sur l’apprentissage automatique arrivent à leurs résultats, prouvant d’une part l’incompréhension à peu près totale de ce qu’est l’intelligence aussi bien humaine qu’artificielle, mais aussi le fait que l’humain ne peut se satisfaire de cette incompréhension. ↩︎
  9. L’exemple le plus parlant étant celui de l’éthologie, la science qui s’attache à l’étude des comportements animaux dans leurs milieux naturels ou dans des environnements expérimentaux, par des méthodes scientifiques d’observation et de quantification. Autant dans l’interprétation des observations que dans la conception d’expérience, il est extrêmement difficile de se détacher des pré-conceptions purement humaines qu’on a tendance à ne pas remettre en question voire à considérer universelles, et qui biaisent nos compréhensions des comportements étudiés. ↩︎

Soutenez-nous

Vos dons sont la seule source de revenus permettant à ce contenu d’exister, en complète indépendance, sans pub, sans sponsoring. Merci !

Commentaires

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *