Commençons par la base : Googlebot, c’est quoi ?
C’est le robot d’exploration de Google. En anglais, on le nomme spider signifiant araignée puisqu’il se promène sur la toile (le « web ») pour en explorer le contenu.
C’est donc ce robot qui vient analyser le contenu de votre site web et le répertorier dans l’index de Google !
Il fonctionne grâce à des algorithmes complexes qui lui permettent de comprendre le contenu de votre site et suivre les liens de façon efficace. Voyez-le comme un explorateur qui ne s’arrête jamais de chercher des nouveautés sur le web pour en informer Google et mettre à jour les pages de résultats.
Son rôle est donc primordial pour le référencement. Il est la source première d’information.
Le web est immense et grandit exponentiellement de jour en jour. Googlebot doit donc organiser son exploration pour être efficace. C’est pour cette raison qu’existe le budget d’exploration communément appelé crawl budget. Le budget dépend de la demande d’exploration et la vitesse d’exploration
Toutefois, si votre site a moins de quelques milliers d’URLs, le budget d’exploration n’aura pas d’impact sur votre site et il sera explorer sans problème.
Google doit limiter les ressources allouées à un site par le serveur de Googlebot pour les gros sites ou les sites comportant des pages auto-générées en fonction de paramètres.
Le premier élément déterminant le budget d’exploration est la vitesse d’exploration (crawl rate).
Généralement, le robot effectuera plusieurs connections parallèles sur un même site web pour l’explorer. Il aura un temps d’attente entre ces requêtes d’exploration. C’est ce qu’on nomme le fetching rate qu’on pourrait traduire par taux de récupération.
L’objectif est de ne pas surcharger la bande passante de votre serveur. Googlebot ne doit pas affecter l’expérience des visiteurs de votre site web.
Ainsi, le taux peut varier selon :
Si Googlebot n’explore pas à pleine capacité sur le site, celui-ci n’augmentera pas nécessairement. Tout dépend de la demande d’exploration déterminée par l’algorithme du Googlebot.
En bref, les pages populaires sont explorées plus souvent. De plus, Google détermine les pages à explorer pour éviter de conserver des pages qui n’existent plus dans son index. Finalement, le déplacement d’un site augmente aussi la demande d’exploration pour réindexer le contenu des nouvelles urls.
Certains facteurs affectent à la baisse le crawl budget de votre site web. Un budget sera diminué si vous avez plusieurs pages apportant peu de valeur.
Voici des situations à risque :
En plus d’éliminer ces situations de votre site, voici ce qu’il faut retenir :
‘‘Google ne vous aime que lorsque tout le monde vous aime’’ Wendy Piersall Vous êtes-vous…
‘‘Je plie et ne romps pas’’ Le Chêne et le Roseau. Jean de la Fontaine…
‘’ Les liens sont vraiment importants pour nous, afin de trouver du contenu.’’ John Mueller,…
“Toutes les images que nous avons de la nature, c'est aux peintres que nous les…
Le contenu dupliqué plombe le classement d'un site Web. Plusieurs éléments sur votre site Web…
Avez-vous déjà reçu une lettre retournée par l’expéditeur ? C’est agaçant. Surtout si la réponse…
This website uses cookies.