Le podcast hélicoïdal

Glossaire : I.A.

Banana Plant Flask par Max Gruber

Les définition suivantes sont pour certaines partiellement tirées de Wikipedia. N’hésitez pas à me contacter ou laisser un commentaire pour apporter des corrections ou faire des ajout à ce glossaire.

  • Algorithme : procédure ou fonction logique, suite finie (et non ambiguë) d’instructions et d’opérations permettant de résoudre une classe de problèmes ; qui associe à une ou plusieurs données en entrée un (et un seul) résultat en sortie.
  • Apprentissage automatique / apprentissage machine : au cœur du fonctionnement d’un réseau de neurones, ce sont les différents paramètres, c’est à dire les poids donnés aux connexions entre les neurones, qui définissent la sortie en fonction de l’entrée. L’apprentissage automatique désigne le fait de définir ces paramètres, ces poids, dans un réseau de neurones, en associant à un ensemble de données en entrée des algorithmes d’ajustement de ces paramètres en fonction des entrées et des résultats attendus.
  • Apprentissage profond : lorsque l’apprentissage automatique est appliqué à un réseau de neurones comportant de nombreuses couches de neurones (à partir d’une petite dizaine), on parle d’apprentissage profond.
  • ChatGPT : robot conversationnel lancé en novembre 2022 par OpenAI, utilisant une intelligence artificielle statistique pour dialoguer avec ses utilisateurs. C’est l’application ayant eu la croissance la plus rapide début 2023, avec un 1,6 milliards de visites en mars. Il est capable de répondre à des questions, de tenir des conversations, de générer du code informatique, et d’écrire, traduire ou synthétiser des textes. Il peut le faire en tenant compte du contexte et de contraintes telles que le style d’écriture.
  • GPT (Generative Pre-trained Transformer) : transformeur génératif pré-entraîné, type de grand modèle de langage en intelligence artificielle statistique. Le « préapprentissage » consiste à prédire le prochain mot (en réalité des séquences de caractères, des tokens) dans une séquence de texte. Répété pour de vastes corpus de données textuelles, cet apprentissage permet ensuite au modèle de générer du texte semblable.
  • Empirisme : ensemble de théories philosophiques qui font de l’expérience sensible l’origine de toute connaissance ou croyance et de tout plaisir esthétique. L’empirisme s’oppose en particulier à l’innéisme et plus généralement au rationalisme « nativiste » (ou dit « dogmatique » depuis Kant, cf. Rationalisme). Défendu notamment par les philosophes Francis Bacon, John Locke, David Hume… l’empirisme considère que la connaissance se fonde sur l’accumulation d’observations et de faits mesurables, dont on peut extraire des lois générales par un raisonnement inductif, allant par conséquent du concret à l’abstrait. Du point de vue de l’empirisme, « il n’est rien dans l’intellect qui n’ait été d’abord dans la sensibilité », ce à quoi Leibniz rétorquera « sauf l’intellect lui-même ».
    L’empirisme a des implications non seulement en philosophie et épistémologie, mais aussi dans divers domaines d’étude : logique, psychologie, sciences cognitives, esthétique et linguistique en particulier.
    Par l’accent mis sur l’apprentissage et l’expérience, on peut le relier à l’intelligence artificielle statistique, par opposition à l’intelligence artificielle symbolique qu’on lierait alors au rationalisme.
  • I.A. Forte ou Faible : notion philosophique de la conscience pour l’intelligence artificielle, notamment faisant référence à l’expérience de pensée de la chambre chinoise, une I.A. consciente étant alors qualifiée de Forte.
    Dans cette expérience de pensée de 1980, John Searle (philosophe étasunien né en 1932) imagine une personne qui n’a aucune connaissance du chinois enfermée dans une chambre. On met à disposition de cette personne un catalogue de règles permettant de répondre à des phrases en chinois. Ces règles sont parfaitement claires pour l’opérateur. Leur application se base uniquement sur la syntaxe des phrases. L’opérateur enfermé dans la chambre reçoit donc des phrases écrites en chinois et, en appliquant les règles dont il dispose, il produit d’autres phrases en chinois qui constituent en fait des réponses à des questions posées par un vrai sinophone situé à l’extérieur de la chambre. Du point de vue du locuteur qui pose les questions, la personne enfermée dans la chambre se comporte comme un individu qui parlerait vraiment chinois. Mais, en l’occurrence, cette dernière n’a aucune compréhension de la signification des phrases en chinois qu’elle transforme. Elle ne fait que suivre des règles prédéterminées.
    Cette expérience de pensée suggère qu’il ne suffit pas d’être capable de reproduire exactement les comportements linguistiques d’un locuteur chinois pour parler chinois, car parler le chinois, ou n’importe quelle autre langue, ce n’est pas juste dire les bonnes choses au bon moment, c’est aussi signifier ou vouloir dire ce qu’on dit : un usage maîtrisé du langage se double ainsi d’une conscience du sens de ce qu’on dit (conscience intentionnelle) et la reproduction artificielle, même parfaite, d’un comportement linguistique ne suffit pas à produire une telle conscience.
    Voir aussi Test de Turing.
  • I.A. Générative : intelligence artificielle capable de générer du texte, des images, des vidéos ou d’autres médias en réponse à des requêtes, qui peuvent elles-mêmes être textuelles ou d’autres médias (prompts en anglais). Basée très majoritairement sur des I.A. statistiques en 2024, elle semble avoir des applications possibles dans presque tous les domaines mais est aussi source d’inquiétudes et de défis éthiques, techniques, environnementaux et socio-économiques. Elle questionne aussi philosophiquement la nature de la conscience, de la créativité, de l’attribution des œuvres.
  • I.A. Générale (I.A.G.) : intelligence artificielle capable d’effectuer ou d’apprendre pratiquement n’importe quelle tâche cognitive propre aux humains. C’est un objectif de grandes entreprises telles que OpenAI, Meta ou Alphabet (Google), mais, en 2024, aucune intelligence artificielle générale n’existe et il semble peu probable d’y arriver avant plusieurs (dizaines d’) années (au moins). C’est un thème courant de la science-fiction. l’I.A. générale n’est pas nécessairement non plus une I.A. forte.
  • I.A. Statistique ou Connexionniste : ensemble des méthodes en intelligence artificielle surtout basées sur l’usage de réseaux de neurones et d’apprentissage automatique, en rapport avec le courant connexionniste des neurosciences et de la philosophie de l’esprit. Le connexionnisme modélise les phénomènes mentaux ou comportementaux comme des processus émergents de réseaux d’unités simples interconnectées. Le plus souvent les connexionnistes modélisent ces phénomènes à l’aide de réseaux de neurones.
  • I.A. Symbolique : ensemble des méthodes en intelligence artificielle reposant sur la logique et des représentations symboliques de haut niveau (lisibles par l’homme, comme les langages de programmation) des problèmes. L’I.A. symbolique est resté le paradigme dominant de la recherche en I.A. du milieu des années 1950 jusqu’au milieu des années 1990. Elle a développé des applications telles que les systèmes experts, le calcul symbolique, les démonstrateurs de théorèmes automatisés, les ontologies, le web sémantique, les systèmes de planification automatisée…
    Le paradigme de l’IA symbolique a conduit à des avancées en algorithmes de recherche, langages de programmation symboliques, agents intelligents, systèmes multi-agents, Web sémantique.
  • Microsoft : entreprise multinationale informatique étasunienne fondée en 1975, dont le chiffre d’affaires 2023 dépasse 200 milliards de dollars. Son activité principale consiste à développer et vendre des systèmes d’exploitation, des logiciels et des produits matériels dérivés, et elle a une activité importante dans le web mondial et les serveurs. Elle est actionnaire à 49 % de OpenAI et intègre ChatGPT dans la plupart de ses produits grand public.
  • OpenAI : entreprise d’intelligence artificielle étasunienne fondée en 2015, notamment par Elon Musk et Sam Altman, dont Microsoft est actionnaire à 49 % en 2024, qui développe GPT, un grand modèle de langage, et son application grand public ChatGPT, un robot conversationnel. Elle développe aussi les modèles de génération d’images DALL-E et de génération de vidéos Sora. À l’origine fondée en tant qu’association à but non lucratif, elle est devenue en mars 2019 une entreprise à but lucratif (plafonné… à 100 fois la mise de départ pour les investisseurs).
  • Paramètre : dans un réseau de neurones artificiels, les neurones sont connectés entre eux ; les paramètres sont les poids, les coefficients, associés à chaque connexion. Le nombre de paramètres (donc de connexions) donne une idée de la taille du réseau de neurones (tout en n’étant pas suffisant, ne donnant ni le nombre de neurones ni le nombre de couches).
    GPT 3 possède 200 milliards de paramètres, et on estime le nombre de paramètres de GPT 4 à 1750 milliards, bien que OpenAI ne donne plus accès à ces chiffres.
  • Perceptron ou Neurone artificiel : application informatique conçue en 1957 d’après un modèle mathématique de 1943, simulant un neurone biologique simplifié, considéré comme un algorithme doté d’une sortie à deux valeurs possibles (booléennes, oui ou non, vrai ou faux, un ou zéro…), en fonction d’un nombre arbitraire de valeurs en entrée, mais pondérées (auxquelles on attribue un poids, un coefficient, une importance).
  • Rationalisme : doctrine qui pose les raisons discursives comme seule source possible de toute connaissance du monde. Autrement dit, la réalité ne serait connaissable qu’en vertu d’une explication par les causes qui la déterminent. Ainsi, le rationalisme s’entend de toute doctrine qui attribue à la seule raison la capacité de connaître et d’établir la vérité. Le rationalisme « nativiste » (ou appelé « dogmatique » depuis Kant), de Descartes, Spinoza et Leibniz, s’oppose à l’empirisme en ce que la raison, considérée comme seule source déterminante de la connaissance, et par ses seuls principes a priori, prétend atteindre la vérité, particulièrement dans le domaine métaphysique.
    On peut relier ce rationalisme à l’intelligence artificielle symbolique, ou l’esprit, l’intellect, précède la sensibilité, l’expérience, par opposition à l’intelligence artificielle statistique alors associée à l’empirisme où l’expérience précède l’intellect.
  • Réseau de neurones : assemblage de plusieurs neurones artificiels en couches, où les sorties des neurones d’une couche sont connectées aux entrées des neurones de la couche suivante, formant les connexions entre les neurones auxquelles sont associés les paramètres. La première couche contient donc les entrées du réseau, la dernière couche donnant accès au résultat via ses sorties, la transformation étant faite par les couches intermédiaires.
  • Rétro-propagation du gradient : une méthode en apprentissage automatique pour entraîner un réseau de neurones. Elle consiste à mettre à jour les poids de chaque neurone de la dernière couche vers la première. Elle vise à corriger les erreurs selon l’importance de la contribution de chaque élément à celles-ci. Dans le cas des réseaux de neurones, les poids des connexions qui contribuent plus à une erreur sont modifiés de manière plus importante que les poids qui provoquent une erreur marginale.
  • Test de Turing : proposition de test d’intelligence artificielle fondée sur la faculté d’une machine à imiter la conversation humaine. Décrit par Alan Turing en 1950 dans sa publication Computing Machinery and Intelligence, ce test consiste à mettre un humain en confrontation verbale à l’aveugle avec un ordinateur et un autre humain. Si la personne qui engage les conversations n’est pas capable de dire lequel de ses interlocuteurs est un ordinateur, on peut considérer que le logiciel de l’ordinateur a passé avec succès le test. Cela sous-entend que l’ordinateur et l’humain essaieront d’avoir une apparence sémantique humaine.
    Des programmes de conversation simples tels que ELIZA ont trompé des humains croyant parler à d’autres humains, avec des expressions informelles. Mais de tels « succès » ne reviennent pas à passer le test de Turing. La plupart du temps, la personne n’a pas de raison de suspecter qu’elle ne parle pas avec un humain, alors que dans le cas du test de Turing, le juge essaye de déterminer de façon active la nature de l’entité avec laquelle il converse.
    Le test de Turing est fondé sur l’hypothèse que les êtres humains peuvent juger de l’intelligence d’une machine en comparant son comportement avec le comportement humain. Chaque élément de cette hypothèse a été remis en question : le jugement de l’humain, la valeur de la comparaison qui est de seulement comparer le comportement et la valeur de la comparaison avec un humain.
    On ne teste aussi que la façon dont le sujet agit — le comportement extérieur de la machine. À cet égard, on assume une vision comportementaliste ou fonctionnaliste de l’intelligence. De nombreux exemples montrent qu’une machine passant le test peut être en mesure de simuler le comportement conversationnel de l’homme par la suite d’une simple (mais vaste) liste de règles mécaniques, sans penser, par automatisme.
    John Searle a notamment fait valoir que le comportement externe ne peut pas être utilisé pour déterminer si une machine pense « réellement » ou est simplement en train de « simuler l’action de penser » (voir I.A. Forte et l’expérience de la chambre chinoise).
    Turing anticipa ces critiques dans son article original, où il a écrit :
    « Je ne veux pas donner l’impression que je pense qu’il n’y a aucun mystère quant à la conscience. Il y a, par exemple, en quelque sorte un paradoxe lié à toute tentative visant à la localiser. Mais je ne pense pas que ces mystères aient nécessairement besoin d’être résolus avant que nous puissions répondre à la question qui nous préoccupe dans cet article. »

Soutenez-nous

Vos dons sont la seule source de revenus permettant à ce contenu d’exister, en complète indépendance, sans pub, sans sponsoring. Merci !

Commentaires

Laisser un commentaire

Votre adresse e-mail ne sera pas publiée. Les champs obligatoires sont indiqués avec *