Votre panier est actuellement vide !
Derrière les mots « intelligence artificielle »

Colors representing weights and biases in a neural network.
John McCarthy1 définit l’intelligence artificielle comme « la science de l’ingénierie de la fabrication de machines intelligentes ». Cela nous avance peu sans une définition un tant soit peu précise de l’intelligence, que la philosophie autant que la biologie peinent à nous donner. On en sait juste que ses frontières sont floues, et que la définition imprécise qu’on en a, aussi bien naïve que scientifique, est difficile à relier à des processus physiques et objectifs. On peut en tout cas acter le fait que l’expression « intelligence artificielle » peut recouvrir toutes sorte de machines, de programmes, d’algorithmes très variés, aussi bien analytiques et symboliques que statistiques, comme nous avons pu le voir à travers l’histoire de l’informatique, la définition qui en est donnée étant purement fonctionnelle.
On peut toutefois s’intéresser à ce que recouvre l’expression dans son usage courant contemporain, et préciser un peu de quoi il peut être question.
L’apparition récente de l’intelligence artificielle en tant qu’outil informatique à la portée de tout possesseur d’un appareil numérique implique que les outils informatiques qui l’ont précédée étaient autre chose (aussi intelligents qu’ils aient pu être). De ce point de vue, la différence fondamentale entre une intelligence artificielle et un algorithme « classique » est l’usage de l’apprentissage automatique. Alors que jusque là la plupart des algorithmes à l’usage du grand public étaient des programmes informatiques analytiques, déterministes, suivant une logique entièrement conçue et écrite par des développeurs, l’intelligence artificielle telle qu’elle est vendue dans les années 2020 implique la présence d’un réseau de neurones et donc aussi d’une phase apprentissage, ignorant de fait l’existence d’intelligences artificielles symboliques et non pas statistiques.
En réalité, avant que l’I.A. ne devienne à la mode, quelques réseaux de neurones étaient déjà assez courants en informatique, ainsi que l’apprentissage automatique qui leur est associé.
L’I.A. moderne représente en fait surtout un changement d’échelle : de l’apprentissage automatique on passe à l’apprentissage profond ; c’est à dire qu’on augmente, substantiellement, le nombre de couches de neurones dans le réseau, mais aussi et surtout le nombre total de neurones et de connexions entre ces neurones.
Hormis son usage potentiellement marketing et déconnecté de toute réalité, l’expression « I.A. » recouvre donc généralement un processus statistique fondé sur des réseaux de neurones préférentiellement nombreux.
Et lorsqu’on accole le terme « générative » à « I.A. », l’expression représente un réseau de neurones suffisamment vaste pour être capable de générer du contenu original (texte, image, vidéo, audio), construit statistiquement à partir d’un corpus de données d’apprentissage nécessairement gigantesque.
Enfin, il ne faut pas confondre l’I.A. générative, qui fonctionne, avec l’I.A. « générale », un concept purement théorique d’une I.A. qui serait non seulement générative (dans tous les types de médias), mais aussi capable de résoudre toutes sortes de problèmes et d’effectuer des raisonnements logiques et analytiques, notamment à la manière du cerveau humain.
Il y a donc une gradation, une échelle des intelligences artificielles2, du plus simple et petit des réseaux de neurones et d’apprentissage automatique très spécialisé dans une tâche précise, au plus profond des apprentissages sur des réseaux de plusieurs millions de neurones et jusqu’à des trillions de connexions. Bien que la mode du terme I.A. pousse à l’utiliser pour parler de n’importe quel réseau de neurone, les petits réseaux spécialisés sont utilisés depuis plusieurs années déjà, bien avant cette mode récente, notamment dans le traitement de l’image ou du son ; par exemple de tous petits modèles permettent d’effacer les sons parasites d’un dialogue enregistré3 ; on peut aussi citer l’exemple de modèles plus grand pour le remplissage intelligent4 développé par Adobe pour leurs applications Photoshop et After Effects, un outil bien connu des graphistes, capable de reconstruire les parties manquantes d’une image ou d’une vidéo. À l’autre bout de l’échelle, l’exemple le plus connu est GPT, gargantuesque réseau de plus d’un trillion de connexions neuronales, simulant des conversations en langage naturel, entraîné avec une quantité incommensurable de textes.
C’est bien cette course à la démesure qui pose les problèmes les plus graves de ces I.A. En effet, effectuer les calculs nécessaires à la simulation d’une telle quantité de neurones et de connexions, nécessite une infrastructure tout aussi démesurée. L’I.A. a donc un impact direct sur les besoins en composants informatiques du monde numérique, et donc sur l’extraction minière des métaux et terres rares, dont on sait qu’elle se fait au détriment de l’environnement autant que des populations locales ; une extraction bien souvent faite dans des régions pauvres, ou en guerre. Une fois assemblés en centre de données et de calculs, ces matériaux consomment une énergie énorme5, dont une grande partie est gâchée, perdue sous forme de chaleur, impliquant des systèmes de refroidissement qui nécessitent la plupart du temps de prélever des quantités d’eau énormes dans l’environnement naturel du bâtiment6. Alors que les géants du numérique, Google, Microsoft, et consorts, promettaient leur neutralité carbone en 2030, tous ont abandonné ces objectifs en raison de la course à la puissance de l’I.A. dans laquelle ils se sont lancés. Parce que, comme nous allons le voir, les progrès de l’I.A. ne se font pas grâce à des concepts nouveaux, mais bien seulement grâce à l’augmentation de la taille et la multiplication du nombre de réseaux de neurones.
Mais ce n’est pas tout. L’I.A. n’est pas simplement une simulation qui tourne sur des serveurs informatiques démesurés. Il faut collecter les données d’apprentissage7, et en collecter toujours plus. Les concepteurs des I.A. ont donc rapidement mais consciemment décidé de faire fi de toutes les lois sur le copyright, les droits d’auteur, les propriétés industrielles, les licences open source, volant purement et simplement tout contenu accessible8.
Et ce n’est pas tout ! Avant même de commencer l’apprentissage de l’I.A., il faut aussi faire le tri dans toutes ces données, effectuer des classements ; une opération bien rébarbative (du genre de celles que l’I.A. nous promet de ne plus avoir à faire), délocalisée auprès d’ouvriers sous-payés de pays plus pauvres9. Les mêmes qui seront aussi utilisés à aligner l’I.A. après son apprentissage, c’est à dire à tenter corriger les biais introduits par les données d’apprentissage, tout en corrigeant aussi les comportements indésirables de l’I.A., par exemple en détectant et prévenant ses comportements racistes ou sa capacité à donner la recette de poisons ou expliquer la fabrication de bombes… Ou plus généralement s’assurer qu’elle remplit bien la tâche qu’on lui demande sans dévier, quelle que soit la tâche en question, sans nécessairement parler de problèmes graves. Loin de réduire la quantité de travail humain comme elle nous le promet, l’I.A. ne fait que le délocaliser ; le travail que l’I.A. fait économiser à ses utilisateurs est largement compensé par celui allant de la mine à l’ouvrier du clic. Mais aussi, tout en délocalisant le travail, l’I.A. le remplace par du travail toujours plus rébarbatif et stupide, vide de sens, que celui d’origine. L’automatisation croissante des tâches, y compris celles considérées comme « cognitives » et basées sur l’expérience et l’expertise des professionnels, implique la perte de l’expertise et de ce qui donne du sens au travail, tout en augmentant la subordination aux systèmes algorithmiques. On serait tenté dans les pays riches, en voyant disparaître une partie du travail, de replacer l’I.A. dans un contexte d’automatisation du travail tel qu’il a lieu depuis la révolution industrielle, mais il est bien possible que le problème soit plus grave que ça.
Seules des entreprises aussi démesurées que ces nouvelles I.A. peuvent en financer le développement, d’autant plus que dans cette course, aucune n’a pas encore trouvé le moindre modèle économique pour l’accompagner. On assiste alors à un accaparement des ressources (minières, humaines, des contenus…) par quelques grandes entreprises et startups qui n’ont qu’un but : faire monter la sauce pour attirer des investisseurs, et faire monter le cours de leurs actions. Là non plus, rien de vraiment nouveau dans le monde de la tech et du capitalisme numérique, de l’économie de plateforme.
- Lire Petite histoire de l’I.A. ↩︎
- On ne parle là que d’intelligence artificielle statistique à laquelle on pourrait ajouter l’intelligence artificielle symbolique, logique et programmée, alors que l’abréviation I.A. ne recouvre que très rarement ce deuxième type. ↩︎
- Le logiciel d’encodage ffmpeg, et DuME dont je suis le développeur, intègrent de tels filtres utilisant des modèles très légers mais efficaces. ↩︎
- Content Aware Fill ↩︎
- Si les datacentres existent depuis les débuts de l’informatique, dès 1945, l’I.A. générative a gravement accéléré le rythme de leurs constructions. Selon un article publié début 2025 du Massachussets Institute of Technology et une étude de l’Agence Internationale de l’Énergie, on estime que la consommation électrique mondiale des datacentres va plus que doubler entre 2022 et 2026, en très grande partie à cause de l’I.A., passant de 460 térawatts à 1050 térawatts. À titre de comparaison, la consommation de la France en 2022 était de 463 térawatts ; à ce niveau en 2026, la consommation des datacentres se situerait entre celle de la Russie et du Japon, 4è et 5è plus gros consommateurs mondiaux. L’entraînement à lui seul de GPT-3 en 2021 aurait consommé 1,29 térawatts générant environ 552 tonnes de dioxyde de carbone. GPT-4 est plusieurs ordres de grandeurs au dessus, et serait, après son entraînement initial, de 1,8 MWh chaque jour (pour 10 millions de requêtes). Le problème des intelligences artificielles génératives en particulier est la fluctuation de leurs consommations électriques, généralement absorbée par des générateurs diesels allumés pour protéger le réseau électrique.
Google a annoncé fin 2024 acheter l’électricité produite par de nouveaux réacteurs nucléaires modulaires d’ici 2030, construits par la startup Kairos, tandis que Microsoft a dévoilé un partenariat avec le groupe Constellation Energy pour la réouverture d’un réacteur de la centrale de Three Mile Island, dont le second réacteur est en arrêt depuis 1979, date à laquelle il a subi le pire accident nucléaire civil étasunien, et mondial avant Tchernobyl. ↩︎ - Une étude de l’université de Californie à Riverside (non validée par les pairs) estime à 2,2 milliards de mètres cubes d’eau la consommation de Google, Microsoft et Meta en 2022. Cette consommation pourrait augmenter et atteindre 4,2 à 6,6 milliards de mètres cubes en 2027, soit la moitié des besoins annuels du Royaume-Uni, non seulement pour le refroidissement mais aussi pour la fabrication des composants, très gourmande en eau. ↩︎
- Là encore une opération qui ne peut pas être écologiquement neutre. Cette masse incommensurable de données doit être stockée proche du centre de calcul de l’I.A., et 90 % de l’énergie dépensée pendant l’apprentissage provient en réalité du mouvement continu des données entre le lieu de stockage et celui du traitement, selon Dejan Glavas, directeur de l’institut I.A. for Sustainability. ↩︎
- Un article de The Wire montre comment Meta aurait entraîné son intelligence artificielle en utilisant une grande base de donnée de livres piratés ; l’affaire est révélée grâce à la mise à disposition de documents internes de l’entreprise lors de procès concernant les droits d’auteur.
Selon une enquête du New York Times (relayée ici par The Verge), OpenAI, qui manquait de données pour entraîner GPT-4 en fin d’année 2021, aurait envisagé concrètement la possibilité de « transcrire des podcasts, des livres audio et des vidéos YouTube » pour poursuivre l’entraînement.
OpenAI aurait alors développé un système de reconnaissance vocale, pour transcrire des milliers d’heures de contenus, une pratique pourtant interdite par les conditions générales de YouTube.
Certains employés de Google auraient eu vent de la collecte, mais ne l’auraient pas dénoncé publiquement puisque Google aurait également utilisé des transcriptions de vidéos provenant de YouTube pour former ses propres modèles d’I.A. ↩︎ - Les sociologues Maxime Cornet et Clément Le Ludec estiment dans un entretien donné au journal Le Monde de 5 à 10 % le coût des logiciels d’intelligence artificielle dédié à la sous-traitance du travail de préparation des données. Ce principe fait suite au micro-travail « micro-payé » sur des plateformes digitales mises en place depuis longtemps, tel que Amazon Mechanical Turk (MTurk) depuis 2005 par exemple. ↩︎
—-
Soutenez-nous
Vos dons sont la seule source de revenus permettant à ce contenu d’exister, en complète indépendance, sans pub, sans sponsoring. Merci !
Laisser un commentaire