Depuis que les moteurs de réponse ont commencé à s’imposer dans les usages, l’équilibre économique du web ouvert s’est tendu. En tête, les Aperçus IA de Google, mais aussi des assistants comme ChatGPT ou Perplexity, changent la promesse initiale de la recherche : moins « trouver un site », davantage « obtenir une réponse ». Résultat, une partie du trafic en ligne qui alimentait la publicité, l’affiliation ou l’abonnement ne transite plus par les pages des éditeurs, avec un effet domino sur la économie du trafic web. Les analyses publiées ces derniers mois par plusieurs acteurs de la mesure d’audience et du SEO convergent : lorsque ces réponses générées apparaissent, le taux de clic peut reculer nettement, et des baisses à deux chiffres ont été observées sur des portefeuilles de sites dans les mois suivant des déploiements élargis. Pour les médias, comparateurs, blogs spécialisés ou boutiques de niche, la question devient pressante : que reste-t-il du “deal” historique où la recherche distribuait des visites, et où la création de contenus finançait l’écosystème ?
Google et les moteurs de réponse IA accélèrent la bascule vers un web à moins de clics
Le mouvement s’est cristallisé avec l’extension des Aperçus IA dans Google Search : un résumé généré en haut de page, qui répond directement à la requête. Dans cette configuration, Google n’agit plus seulement comme une passerelle, mais comme un acteur qui “consomme” l’information et la restitue, via des algorithmes IA entraînés à synthétiser des contenus hétérogènes.
Les effets sur le comportement sont désormais documentés par des études tiers : quand un aperçu s’affiche, les clics vers les résultats organiques classiques chutent sensiblement, et la part de recherches dites “zéro clic” progresse. Certaines analyses, menées sur des centaines de domaines, rapportent des reculs de trafic à deux chiffres après des phases de déploiement, signe d’un changement structurel plutôt que d’une fluctuation saisonnière.
La baisse n’est pas uniforme. Les requêtes informatives, non liées à une marque, semblent les plus exposées, car l’IA couvre souvent l’essentiel en quelques lignes. À l’inverse, des requêtes de marque peuvent conserver, voire améliorer leur performance, l’utilisateur ayant une intention plus claire. Une logique qui redistribue les cartes de la visibilité et oblige à repenser l’optimisation web au-delà du simple classement.

De la recherche aux réponses : une révolution numérique portée par la technologie web
Cette révolution numérique s’inscrit dans une trajectoire longue : featured snippets, encarts de connaissances, puis génération de texte. La différence, aujourd’hui, tient au caractère conversationnel et exhaustif des réponses, qui réduit l’intérêt d’ouvrir plusieurs pages. Qui capte alors la valeur créée par l’information originale, quand l’utilisateur ne “visite” plus sa source ?
Pour les éditeurs, la métrique centrale n’est plus seulement le positionnement, mais la probabilité d’être retenu comme source “citable” par la IA, même si cette citation déclenche rarement un clic. Cette tension s’observe aussi dans l’e-commerce, où la découverte produit glisse vers des interfaces d’assistance : une dynamique décrite dans l’essor de l’agentic commerce, qui anticipe des parcours d’achat de plus en plus guidés par des agents.
Une onde de choc sur les revenus et sur la chaîne de valeur de l’information en ligne
Quand le trafic en ligne recule, l’effet est immédiat pour les modèles publicitaires : moins d’impressions, moins de revenus, et souvent moins de capacité à investir dans la production. Plusieurs éditeurs indépendants décrivent déjà une pression accrue sur les coûts, avec des arbitrages éditoriaux plus stricts, notamment sur les contenus “evergreen” informatifs qui étaient historiquement rentables grâce au SEO.
Dans un cas typique, une petite rédaction spécialisée — par exemple dans la tech grand public — peut voir son audience provenant de requêtes pratiques (comparatifs, définitions, “comment choisir”) baisser sensiblement après l’apparition de résumés automatiques. La conséquence n’est pas seulement financière : moins de ressources signifie aussi moins d’enquêtes, moins de tests, moins de diversité de points de vue, et donc un risque de web plus homogène.
Au-delà de la publicité, l’impact touche la valeur des actifs intangibles : bases d’articles, archives, expertise éditoriale. Si ces contenus sont résumés et consommés ailleurs, la question de la reconnaissance et de la rémunération devient centrale. Le débat rappelle, toutes proportions gardées, les tensions des années 2010 autour des réseaux sociaux, quand la distribution pouvait se couper du jour au lendemain via un changement d’algorithme.
L’impact économique s’étend au SEO, au commerce et aux plateformes de visibilité
Pour les marques, l’enjeu ne se limite pas aux médias : la découverte se fragmente entre recherche, chatbots et réseaux sociaux. La montée de TikTok et YouTube comme points d’entrée informationnels renforce cette dispersion, détaillée dans la recherche sur TikTok et YouTube. Dans ce contexte, la performance dépend davantage d’un portefeuille de canaux que d’un seul levier.
Du côté des sites marchands, la pression s’exerce sur les pages catégories et guides d’achat, souvent “résumés” par des assistants. Cela pousse les équipes à adapter leur optimisation web et leurs contenus structurés, un chantier abordé dans l’optimisation des moteurs e-commerce. L’insight qui s’impose : la visibilité n’est plus seulement une affaire de mots-clés, mais de crédibilité, d’originalité et de preuves.
Entre ripostes des éditeurs et adaptation : l’optimisation à l’ère des algorithmes IA
Face à cette recomposition, plusieurs stratégies se dessinent. D’abord, la diversification : newsletters, applications, communautés, abonnements, partenariats, afin de réduire la dépendance à la recherche. Ensuite, la structuration des données et la clarté des contenus, pour augmenter les chances d’être repris par des systèmes de intelligence artificielle qui privilégient, dans leurs sélections, des sources perçues comme fiables et cohérentes.
Une autre ligne de défense s’organise autour de la maîtrise de l’accès : certains fournisseurs d’infrastructure proposent de bloquer par défaut les robots d’exploration utilisés pour l’entraînement ou l’indexation des assistants, puis de conditionner l’accès à des accords. Cette logique, parfois présentée comme un “paywall IA”, vise à recréer un échange de valeur. Elle s’ajoute aux accords de licence que certains grands groupes de presse négocient déjà avec des entreprises du secteur, un modèle qui bénéficie surtout aux acteurs capables de peser dans la négociation.
Dans les équipes SEO, le vocabulaire change : il faut conserver du trafic, mais aussi gagner en “citabilité”. Cela passe par des contenus sourcés, des signatures expertes, des mises à jour régulières et une identité éditoriale forte, autant de signaux susceptibles d’être mieux interprétés par la technologie web actuelle. En filigrane, une question demeure : jusqu’où peut aller la synthèse sans fragiliser l’écosystème qui produit l’information ?
Vers une économie du trafic web recomposée, entre moteurs alternatifs et nouvelles métriques
La redistribution bénéficie aussi à des acteurs qui se positionnent sur d’autres modèles de découverte, qu’il s’agisse de plateformes sociales ou de moteurs alternatifs à Google. Dans le même temps, les éditeurs suivent de nouvelles métriques : part de marque, récurrence des audiences directes, performance des formats vidéo, et présence dans des réponses générées.
Google, de son côté, présente ces fonctionnalités comme un point de départ pour explorer davantage. Pourtant, les tendances observées dans les données d’usage montrent qu’une partie des sessions s’arrête sur la page de résultats, ce qui recompose concrètement la circulation de l’attention. Dans cette nouvelle phase, l’enjeu n’est plus seulement d’être trouvé, mais de rester financé. C’est là que se joue, très directement, l’avenir de l’information et du commerce en ligne face à l’IA.