13 Mai Les dessous de Google révélés
Les dessous de Google révélés : ce que le procès antitrust dévoile sur PageRank, NavBoost et RankEmbed
Le procès intenté par le ministère de la Justice américain contre Google a permis la publication de documents internes qui lèvent le voile sur les mécanismes profonds de son moteur de recherche. Loin des idées reçues, ces révélations montrent que l’algorithme de Google reste fortement basé sur des signaux traditionnels, même si l’intelligence artificielle y est de plus en plus intégrée.
Un classement encore basé sur des signaux « manuels »
Contrairement à ce que laissent croire certaines théories récentes, Google n’a pas abandonné ses fondamentaux. Les documents révèlent que le système de classement principal repose sur une combinaison de plus de 100 signaux, certains traditionnels (liens, mots-clés, clics), d’autres issus du machine learning.
Même les signaux « intelligents » utilisés aujourd’hui — comme RankEmbed, un modèle généré par IA — ne remplacent pas les signaux classiques, mais les complètent.
NavBoost : un signal-clé basé sur les clics des utilisateurs
Parmi les révélations majeures figure NavBoost, un indicateur basé sur les comportements réels des internautes. Ce système enregistre le nombre de clics générés par chaque page pour une requête donnée, sur une période de 13 mois. Il ne s’agit pas d’un algorithme d’IA, mais plutôt d’une gigantesque base de données agrégées par requête, appareil et géolocalisation.
NavBoost mesure l’attractivité réelle d’un résultat dans les SERP, ce qui donne un poids important à l’expérience utilisateur.
PageRank : toujours là, toujours influent
Le fameux PageRank, cœur historique de l’algorithme de Google, reste activement utilisé. Il continue de mesurer la popularité d’une page à travers les liens entrants, et alimente aujourd’hui encore des signaux de qualité utilisés dans le score global d’une page.
RankEmbed, Q*, Twiddlers : l’IA entre en scène (mais ne domine pas)
Le moteur de recherche de Google intègre désormais plusieurs couches d’intelligence artificielle :
- RankEmbed, un score généré par un modèle LLM (large language model), contribue au classement général.
- Q* (ou Q star) évalue la qualité intrinsèque d’un document, selon une formule tenue secrète.
- Les Twiddlers, quant à eux, interviennent pour reclasser dynamiquement certains résultats selon le contexte ou des ajustements spécifiques.
Malgré l’introduction de ces outils, Google privilégie toujours une formule de classement linéaire, où les signaux sont pondérés pour éviter qu’un seul facteur ne déséquilibre le tout. Un signal positif ne peut jamais faire baisser une page, ce qui garantit une certaine cohérence algorithmique.
Le rôle clé des évaluateurs humains
Autre révélation confirmée par les documents : Google s’appuie sur des évaluateurs de qualité humains pour attribuer des scores manuels à certaines pages. Ces notations aident à entraîner et ajuster les modèles d’IA, mais aussi à calibrer certains signaux.
C’est la preuve concrète que l’humain a toujours sa place dans le moteur de recherche, même à l’ère de l’intelligence artificielle générative.
Le fonctionnement de la pile de recherche de Google
Les documents dévoilent également l’architecture interne du processus de recherche, depuis la collecte des données jusqu’à l’affichage des résultats :
- Multiverse collecte et structure les contenus du web.
- Superroot et Query Understanding Service interprètent les intentions des utilisateurs.
- Le GWS (Google Web Server) affiche les résultats, en tenant compte du contexte, des préférences, et des données comportementales.
- Enfin, une couche de journalisation enregistre les interactions pour améliorer les classements futurs.
Gemini, Chrome et 8 milliards de requêtes par jour
Le dossier mentionne aussi l’intégration forcée de Gemini, le nouveau modèle IA de Google, directement dans Chrome. On y apprend également que Google traite désormais plus de 8,3 milliards de requêtes par jour, un volume impressionnant qui illustre la portée de son infrastructure.
Ce que cela change pour le SEO
Ces révélations confirment que :
- Le SEO technique et stratégique reste fondamental.
- L’expérience utilisateur (clics, pertinence, comportement post-clic) est essentielle.
- Le contenu, les liens et les signaux classiques ne sont pas morts : ils sont toujours centraux dans la formule de classement.
L’IA s’invite dans la recherche, mais Google ne laisse pas l’algorithme en roue libre. Il continue de surveiller, d’ajuster, et d’optimiser manuellement une grande partie de sa mécanique.
Non, le SEO n’est pas mort avec l’arrivée de l’IA
Les documents révélés dans le cadre du procès montrent clairement une chose : le SEO n’est pas mort, il évolue. Google continue de s’appuyer sur les piliers historiques du référencement — qualité du contenu, popularité des liens, expérience utilisateur — tout en intégrant progressivement des briques d’intelligence artificielle pour affiner ses résultats. Ce n’est pas une rupture, mais une hybridation. L’IA n’a pas remplacé les signaux SEO classiques : elle les renforce, les enrichit, mais ne les efface pas. Plus que jamais, un référencement bien pensé, basé sur la compréhension fine de l’intention de recherche, la qualité éditoriale et la performance technique, reste essentiel pour exister dans les SERP.
Que retenir ?
Ces documents internes confirment ce que les experts SEO soupçonnaient depuis longtemps : Google reste un moteur construit sur des bases solides, où le contenu, les liens et l’expérience utilisateur ont toujours leur place. L’intelligence artificielle ne remplace pas l’expertise SEO, elle l’amplifie. Comprendre les signaux utilisés, suivre l’évolution des algorithmes, et rester fidèle aux fondamentaux de qualité : voilà ce qui permet aujourd’hui encore de performer durablement dans les résultats de recherche.