En 1998 , lorsque nous faisions fonctionner nos serveurs dans le garage de Susan Wojcicki , nous n'avions pas vraiment à nous préoccuper des fichiers JavaScript ni des feuilles de style CSS. Ces ressources étaient peu utilisées. Le code JavaScript servait à l'époque à faire clignoter les éléments d'une page. Beaucoup de changements ont eu lieu depuis. Le Web compte de nombreux sites extraordinaires, riches et dynamiques sur lesquels le code JavaScript est largement utilisé. Aujourd'hui, nous allons évoquer notre capacité à afficher des sites Web plus riches. Cela signifie que nous voyons davantage votre contenu tel qu'il s'affiche dans les navigateurs Web modernes. Désormais, nous pouvons intégrer les ressources externes, exécuter le code JavaScript et appliquer les feuilles de style CSS.
À l'origine, nous ne nous intéressions qu'au contenu textuel brut que nous obtenions dans le corps de la réponse HTTP. Nous n'interprétions pas le contenu tel qu'il s'affichait réellement dans un navigateur standard sur lequel le langage JavaScript était exécuté. Lorsque des pages avec du contenu intéressant en JavaScript ont fait leur apparition, il nous était impossible de le refléter dans les résultats de recherche, ce qui était dommage à la fois pour les internautes et pour les webmasters.
Afin de résoudre ce problème, nous avons décidé de tenter d'interpréter les pages en exécutant le langage JavaScript. À l'échelle du Web actuel, ce n'est pas une entreprise aisée, mais nous avons décidé que cela valait la peine d'essayer. Depuis un certain temps, nous nous attachons à améliorer progressivement notre façon de procéder. Au cours des derniers mois, notre système d'indexation a permis d'afficher un rendu plus fidèle de bon nombre de pages Web, pour mieux refléter ce qu'un internaute ordinaire verrait avec le langage JavaScript activé.
Tout ne se passe pas toujours comme prévu au moment de l'affichage, ce qui peut avoir des conséquences négatives pour votre site dans les résultats de recherche. Voici quelques problèmes potentiels et, le cas échéant, les méthodes qui permettent d'empêcher leur apparition :
Si des ressources telles que JavaScript ou CSS présentes dans des fichiers distincts sont bloquées (par un fichier robots.txt, par exemple), elles ne peuvent pas être explorées par Googlebot et votre site ne pourra pas être interprété dans nos systèmes d'indexation tel qu'un internaute ordinaire le verrait. Nous vous conseillons d'autoriser Googlebot à récupérer le code JavaScript et CSS pour que votre contenu soit mieux indexé. Cela est particulièrement important pour les sites Web dédiés aux mobiles, car les ressources externes de type CSS et JavaScript indiquent à nos algorithmes que les pages sont optimisées pour les mobiles .
Si votre serveur Web ne peut pas gérer le volume de demandes d'exploration des ressources, cela peut avoir un impact négatif sur notre capacité à afficher vos pages. Pour vous assurer que vos pages s'affichent dans Google, vérifiez que vos serveurs sont capables de gérer les requêtes d'exploration des ressources.
Il est toujours bon de proposer une dégradation élégante de votre site. Cela permet aux internautes de profiter de votre contenu, même si la version de JavaScript installée sur leur navigateur n'est pas compatible. Cela sera également utile pour les internautes qui ont désactivé JavaScript, ainsi que pour les moteurs de recherche actuellement incompatibles avec l'exécution de JavaScript.
Parfois, le code JavaScript peut être trop complexe ou obscur pour que nous puissions l'exécuter. Dans ce cas, nous ne pouvons pas afficher la page de manière exacte et complète.
Certains codes JavaScript suppriment du contenu d'une page au lieu d'en ajouter, ce qui empêche l'indexation de ce contenu.
Pour permettre de résoudre ces problèmes plus facilement, nous travaillons actuellement sur la création d'un outil qui devrait aider les webmasters à mieux comprendre comment leur site est interprété par Google. Nous le mettrons très prochainement à votre disposition dans les Outils pour les webmasters .
Si vous avez des questions, n'hésitez pas à consulter notre forum d'aide .
Ecrit par Michael Xu, ingénieur logiciel et Kazushi Nagayama, analyste des tendances des webmasters