L’envoi de codes d’état HTTP différents pour Googlebot et les visiteurs humains des pages n’est pas recommandé selon Google.
Pour empêcher l’indexation par Google de pages autrement accessibles, il existe plusieurs possibilités. Normalement, un noindex par balise Meta Robots ou un noindex dans l’en-tête HTTP suffisent. Le blocage par robots.txt est également une solution.
En revanche, ce n’est pas une bonne idée d’envoyer à Googlebot un code de statut différent de celui du navigateur des visiteurs humains. Par exemple le statut 410 pour Googlebot, afin d’indiquer l’indisponibilité de la page, alors que les utilisateurs humains peuvent consulter la page normalement et obtenir le statut HTTP 200.
Dans la dernière vidéo des Google Search Central SEO Office Hours, il est expliqué qu’un tel « cloaking de statut » peut entraîner des effets secondaires indésirables et compromettre l’indexation d’un site web dans son ensemble. Au lieu d’opter pour une cette configuration compliquée, il vaut mieux utiliser le noindex pour que certaines pages ne soient pas indexées. C’est beaucoup plus rapide et simple.
En conclusion, Il faut absolument éviter des réponses de serveur différentes pour les utilisateurs et Googlebot afin d’éviter des effets indésirables et de ne pas mettre en danger l’indexation de votre site.
0 commentaires