Votre panier est actuellement vide !
Sérendipité et innovation

Allégorie de la caverne de Platon, Jan Saenredam d’après Cornelis van Haarlem, 1604
Rapidement après le boom de l’IA, les grandes entreprises de la recherche sur internet, Google et Microsoft en tête, ont commencé à intégrer des robots conversationnels à leurs moteurs, basés sur de grands modèles de langage par apprentissage automatique.
Le cas Google est intéressant. Depuis le début des années 2000, ce moteur est devenu largement majoritaire dans les usages, suite à une politique commerciale agressive le plaçant comme choix de moteur par défaut dans les navigateurs les plus répandus, et grâce aussi à la position dominante de l’entreprise dans les systèmes d’exploitation mobiles, avec Android. Sa part de marché de 90 %1 lui permet de relativiser fortement l’impact de la concurrence d’autres moteurs, au point que l’importance de la qualité de ses résultats de recherche n’a plus réellement d’impact sur ses revenus. En fait, la situation est même inversée. Tirant ses revenus des publicités, le chiffre d’affaires généré dépend directement du nombre de requêtes. Google a donc en réalité tout intérêt à ne pas être trop efficace, à ce que les internautes effectuent plusieurs requêtes avant d’obtenir un résultat satisfaisant. Et c’est ce qu’il fait : les résultats qualitatifs sont noyés dans un flot de résultats vides de sens, souvent du contenu écrit, et maintenant généré par IA, dans l’unique but d’apparaître haut dans les résultats des recherches pour attirer du trafic. Et Google a même intérêt à favoriser ce type de contenu inutile aux dépends des contenus authentiques et utiles : en effet, pour maximiser non seulement le nombre de requêtes, mais aussi la proportion de clics sur les publicités, qui apparaissent en tête de liste, il a tout intérêt à ce que les contenus intéressants, qui pourraient attirer le clic, apparaissent plus bas, éloignés de la publicité en question. C’est un phénomène qui participe à la merdification d’internet2. « Don’t be evil » était leur slogan… Mais les équipes de Google gardent soigneusement secret leur algorithme de classification des résultats des recherches, alors que leur impact, sur 90 % des recherches effectuées en ligne, est devenu un problème de société. Il faut se garder de croire que Google est la victime de l’explosion de la quantité de contenus redondants ou vides de sens, aujourd’hui amplifiée par la génération par l’IA ; filtrer ses résultats est techniquement possible : des concurrents le font. Certains méta-moteurs de recherche agrègent et filtrent les résultats d’autres moteurs, et notamment ceux de Google, pour proposer aux utilisateurs des outils plus pertinents. Mais revenons à l’IA. Sautant sur le potentiel des agents conversationnels, Google peut maintenant proposer son propre robot, Bard, qui a notamment pour but de répondre aux questions des utilisateurs en faisant la recherche ̀a leur place, en filtrant les résultats, et en résumant automatiquement les données, tout en donnant les sources. Le slogan de ce nouveau service ? « Let Google google it for you » (Laissez Google googler pour vous). C’est bien là un aveu prouvant la conscience qu’a l’entreprise de la piètre qualité des résultats de son propre moteur de recherche.
Fin 2024, OpenAI, entreprise leader dans l’intelligence artificielle et en particulier les agents conversationnels avec son robot ChatGPT, parcoure le chemin inverse. Disposant d’un agent conversationnel, mais pas d’un moteur de recherche, le robot apportant des réponses à partir d’un corpus de données figé dans un passé proche, l’entreprise annonce que le robot pourra maintenant piocher ses réponses directement sur internet, ̀a la manière des moteurs de recherche, entrant en concurrence frontale avec Google, mais aussi Microsoft, son actionnaire à 49 %3.
Autrement dit, il semble que toutes ces entreprises ont réussi à surmonter, ou limiter, le problème de l’alignement, à mettre en place des filtres sur ce que ces IA sont capables de répondre. Cela étant dit, de tels filtres existent déjà depuis longtemps sur les moteurs de recherche traditionnels, capables de cacher l’existence de pans entiers d’internet4.
Mais là n’est pas le sujet. Projetons nous et imaginons un monde où la majorité des recherches sur internet ne se font plus via un moteur de recherche ne présentant que des liens vers des pages internet, mais via un agent conversationnel qui répond aux questions qu’on lui pose, filtre les résultats, et surtout résume les données, les classifie pour nous, en effectue la synthèse. On pourrait même imaginer aller plus loin avec des robots qui rédigent des rapports, créent des exposés, réalisent des méta-études5 ; mais limitons nous pour l’instant à un robot simple, qui effectue une recherche et nous la résume, et répond précisément à nos questions. Déjà dans cette situation, quelle place reste-t-il à la sérendipité ? Il est certes déjà difficile de profiter pleinement de la multitude de résultats des moteurs de recherche, les résultats intéressants étant comme on l’a vu noyés dans la merdification d’internet. Il reste cependant possible de faire des découvertes inattendues directement dans les résultats ; mais aussi, et surtout, la présentation même en liste de liens nous invite à la navigation ; la recherche ne se termine pas sur le moteur, il n’est qu’une porte d’entrée. Même sur les sujets les plus triviaux, il faut ouvrir le résultat, naviguer sur une page contenant l’information recherchée, et c’est une occasion d’élargir l’univers de la recherche, que ce soit via des commentaires sur la page, des notes de bas de page qui ouvrent le champ intellectuel, ou de nouveaux lien amenant vers d’autres recoins d’internet. On peut ainsi aller de source en source à la recherche de la source originale, ou sauter d’une catégorie à l’autre… Sans forcément faire de découvertes inattendues, on y gagne en connaissances et en expérience. Même arrivés sur une page d’apparence vide de sens, inintéressante, voire rédigée par une IA, assortie de commentaires ineptes, on y aura appris à reconnaître ce type de contenu ; on aura été amenés à réfléchir à ce phénomène de merdification, et on finira par changer nos habitudes de recherche pour favoriser des moteurs et des méthodes aux résultats plus pertinents. Revenons maintenant à notre expérience de pensée où tout cela ne se fait plus. Nous obtenons les réponses ̀a nos questions de façon claire et précise, résumées et factuelles, dans un langage maîtrisé, juste et précis. Alors quel besoin aurions-nous de creuser, d’aller plus loin dans la recherche, de cliquer sur les liens discrets des sources choisies par l’automate ?
Cette disparition de la sérendipité ne serait-elle pas aussi une voie vers la disparition des idées nouvelles ? Imaginons que vous ayez développé un concept novateur, un idée originale. Dans cette extension de notre expérience de pensée, vous n’êtes pas une grosse entreprise disposant de gros moyens de communication, ni même une startup ayant levé des fonds ; vous manquez encore de référencement, vous n’avez pas encore acquis de crédibilité auprès des médias, qui ne parlent pas de vous. Vous pouvez tout au plus présenter votre idée sur des réseaux sociaux, et bien sûr votre propre site internet. Déjà noyés dans la merdification des réseaux, il vous est difficile de faire connaître votre innovation, mais vous avez espoir de capter quelques visiteurs sur votre page internet, et de construire lentement une audience qui vous fera notamment apparaître dans les résultats de moteurs de recherche. Des pros de la communication vous ont même conseillé de produire du contenu exprès dans ce but. Mais vous vous heurtez maintenant au filtre de l’IA qui remplace les moteurs de recherche : vous voilà purement et simplement éliminés ! À des questions posées auxquelles votre innovation serait une réponse pertinente, elle n’est pas sélectionnée par l’agent conversationnel qui remplace le moteur de recherche : comme toute bonne I.A., il ne fait qu’un résumé statistique, une moyenne, un consensus mou, dans lequel l’innovation, par définition très minoritaire, n’a pas sa place. L’I.A. effectivement un véritable frein à l’innovation, noyant toute idée novatrice, et donc minoritaire, dans la masse du consensus général ; pour cette raison elle se montre d’ailleurs parfaitement incapable de la moindre créativité. Même guidée et menée par un humain dans un but créatif, elle se révèle être un frein, un handicap sérieux dans le processus, comme le montre une expérience menée par Romain Filstroff6. Dans cet expérience, le linguiste essaie de créer une langue en utilisant une I.A. génerative et se heurte à la fois à ses biais culturels7 et le manque d’innovation induit directement par le respect des probabilités issu de son entrainement statistique. Les I.A. statistiques réduisent le possible au probable, et occultent ainsi tout un pan culturel.
L’agent de recherche/robot conversationnel n’est plus une porte d’entrée de la recherche, mais la finalité ; on a même tout intérêt ̀a se limiter à lui, grâce, à cause de sa capacité, vantée, à ajuster ses réponses ultérieures au contexte de la conversation qui précède. On n’a plus alors comme source d’information que des données sélectionnées et filtrées par une machine sans esprit et sans créativité, sans capacité à tisser des liens inattendus. Nous fermons une porte intellectuelle.
Prenons un autre exemple, bien concret ; je développe des outils logiciels, qui aident à la production audiovisuelle ; j’accompagne toujours ces outils d’une documentation en ligne, rédigée par mes soins. Et j’aime particulièrement profiter de ces documents pour insérer diverses notes de bas de page, des illustrations, du contenu issu de mon univers personnel et de mes passions, qui n’ont parfois qu’un rapport très distant avec le sujet du document. C’est ̀a la fois une manière de lâcher la bride ̀a ma créativité humaine et de favoriser la sérendipité pour mes lecteurs (et pour moi), de partager mes passions, d’ouvrir le champ intellectuel de tous. Qu’en sera-t-il dans ce monde où plus personne ne visitera les pages internet présentant toute cette documentation et ses multiples déviations, ses annexes, son presque-foutoir humain ? Il n’est déjà pas évident d’amener les utilisateurs sur la documentation d’un outil ; la fainéantise étant un trait fondamental et naturel de la vie8, on préfère poser une question à un réseau social, qu’il soit réel ou numérique, pour obtenir une réponse rapide, que d’effectuer une recherche ou une lecture potentiellement fastidieuse. Souhaite-t-on vraiment retirer tout facteur humain de la recherche, en ne posant plus que des questions à des automates stupides et sans créativité ? Dans un tel monde, qui va encore visiter des sites internet particuliers ? Va-t-on se mettre à n’écrire plus que du contenu destiné à être lu, digéré, résumé par des IA, comme certains génèrent du contenu à destination exclusive des robots indexant le web pour les moteurs de recherche ? Pourra-t-on encore proposer du contenu gratuit, en perdant les revenus liés aux visites sur les sites, que ce soit via des dons ou de la publicité par exemple ? Évidemment, les entreprises proposant tous ces outils de recherche, actuels et futurs, n’ont de leur côté qu’un intérêt : capter la navigation de l’internaute et les revenus associés, ce qui fait que quelle que soit leurs évolutions, elles sont un problème de société qu’on devrait poser collectivement9.
- Source : Statcounter ↩︎
- Enshitiffication en anglais. Concept développé par l’écrivain Cory Doctorow sur plusieurs articles de son blog Pluralistic. La merdification est la dégradation de qualité qui affecte progressivement les plate-formes numériques à mesure que leurs clients deviennent captifs et qu’elles développent un monopole, dans un but purement avide. ↩︎
- N’oublions pas que le développement les services liés à l’IA ne sont pas rentables ; c’est encore un domaine spéculatif où la valeur de l’action, et la quantité de fonds levés ont plus d’importance que la rentabilité de l’entreprise. Il n’est donc pas paradoxal pour Microsoft d’investir dans des services faisant concurrence à ses propres produits. ↩︎
- Ce qui encore une fois démontre la capacité technique à afficher de meilleurs résultats de recherche. ↩︎
- Études scientifiques qui réunissent les résultats de nombreuses autres études pour en tirer des tendances. ↩︎
- Romain Filstroff est un vidéaste français. Il est principalement connu pour ses travaux de vulgarisation en linguistique, d’abord sur son blog puis sur YouTube. En 2023, il cofonde le collectif des Linguistes atterrées.
Voir la vidéo Peut-on créer une langue par IA ? ↩︎ - Voir Biais culturels et IA. ↩︎
- Si l’on considère la fainéantise comme le fait de choisir la méthode qui minimise la dépense d’énergie pour parvenir à un résultat donné, elle est le résultat de l’évolution naturelle. Il est alors typiquement humain de s’y opposer. Le propre de l’homme n’est-il pas d’aller au delà de son état de nature, malgré tous les efforts, physiques et mentaux, que cela représente ? ↩︎
- C’est un problème déjà posé par les moteurs, réseaux sociaux et autres portails et plateformes, lorsqu’ils ont commencé à mettre ̀a disposition des articles aux internautes qui n’ont plus à visiter les sites des sources, des médias les ayant publiés. Problème en parti résolu via des contrats de mise à disposition, payante, des contenus, entre entreprises et médias. Laissant de côté les « petits ». Ce type de contrat existe maintenant aussi pour alimenter l’entraînement d’IA, avec encore un peu plus d’opacité sur l’usage des données qui n’ont pas fait l’objet de contrat. ↩︎
Soutenez-nous
Vos dons sont la seule source de revenus permettant à ce contenu d’exister, en complète indépendance, sans pub, sans sponsoring. Merci !
Laisser un commentaire