• Pour vérifier le fonctionnement de votre site, utilisez un navigateur texte tel que Lynx. La plupart des robots d’indexation de moteur de recherche visualisent en effet votre site de la même manière que Lynx. Si certaines fonctionnalités (JavaScript, cookies, ID de session, cadres, balises DHTML ou contenus Flash) vous empêchent d’afficher la totalité de votre site dans un navigateur texte, il est possible que les robots rencontrent des difficultés similaires lors de leur exploration.
  • Évitez de faire appel à des ID de session ou à des arguments permettant de suivre les chemins empruntés par les robots sur votre site. Ces techniques sont utiles pour analyser le comportement des internautes, mais le mode d’exploration des robots est entièrement différent. L’utilisation de ces techniques peut donner lieu à une indexation incomplète de votre site, car les robots ne peuvent pas toujours éliminer les URL qui semblent différentes, bien qu’elles pointent vers la même page.
  • Vérifiez que votre serveur Web prend en charge l’en-tête HTTP If-Modified-Since. Cet en-tête permet à votre serveur Web d’indiquer aux robots Google si le contenu de votre site a évolué depuis la dernière exploration. Cette fonctionnalité permet de limiter la consommation en bande passante et l’exploitation inutile d’autres ressources informatiques.
  • Utilisez un fichier robots.txt sur votre serveur Web. Ce fichier indique aux robots d’exploration les répertoires de votre site qui peuvent ou non être explorés. Vérifiez que ce fichier est adapté à votre site, faute de quoi vous risquez de bloquer l’accès de notre robot d’exploration Googlebot. Pour plus d’informations sur le contrôle des robots susceptibles de visiter votre site, consultez la page http://www.robotstxt.org/faq.html. Pour tester votre fichier robots.txt et vérifier que vous en faites une utilisation appropriée, servez-vous de l’outil d’analyse du fichier robots.txt disponible dans les Outils Google pour les webmasters.
  • Dans la mesure du possible, faites en sorte que les publicités n’influent pas sur le classement du site dans les moteurs de recherche. Par exemple, l’exploration des annonces Google AdSense et des liens DoubleClick est bloquée par un fichier robots.txt.
  • Si votre entreprise acquiert un système de gestion de contenu, assurez-vous que le système crée bien des pages et des liens explorables par les moteurs de recherche.
  • Utilisez le fichier robots.txt pour empêcher l’exploration des pages de résultats de recherche ou d’autres pages générées automatiquement par les moteurs de recherche et qui n’offrent aucun intérêt particulier pour les internautes.
    • Surveillez les performances de votre site et optimisez les temps de chargement. Google s’emploie à proposer aux internautes les résultats de recherche les plus pertinents et un confort de navigation optimal. Des sites rapides participent à l’amélioration de la qualité globale du Web (en particulier pour les internautes ayant des connexions Internet bas débit). Ainsi, en améliorant leurs sites, nous espérons que les webmasters participeront à l’accélération globale de la navigation sur le Web.Google conseille vivement aux webmasters de surveiller régulièrement les performances de leur site en utilisant Page Speed, YSlow, WebPagetest ou d’autres outils. Pour plus d’informations, d’outils et de ressources, reportez-vous à la page Accélérons le Web. En outre, la fonctionnalité Performances du site des Outils pour les webmasters indique la vitesse de votre site telle qu’elle est perçue par les internautes aux quatre coins du globe.