Perplexe par un problème technique de référencement? voici quelques conseils et astuces pour vous aider à diagnostiquer et à résoudre certains problèmes courants.

Il y a beaucoup d’articles remplis de listes de contrôle qui vous indiquent quels éléments techniques de SEO vous devriez examiner sur votre site Web. Ce n’est pas une de ces listes. Ce dont je pense que les gens ont besoin n’est pas un autre guide des meilleures pratiques, mais de l’aide pour résoudre les problèmes.

info: opérateur de recherche

Souvent, [info: https: //www.domain.com/page] peut vous aider à diagnostiquer une variété de problèmes. Cette commande vous permettra de savoir si une page est indexée et comment elle est indexée. Parfois, Google choisit de regrouper les pages dans leur index et de traiter deux ou plusieurs doublons comme la même page. Cette commande vous montre la version canonisée – pas nécessairement celle spécifiée par la balise canonique , mais plutôt ce que Google considère comme la version à indexer.

Si vous recherchez votre page avec cet opérateur et que vous voyez une autre page, alors vous verrez le classement de l’autre URL au lieu de celui-ci dans les résultats. En gros, Google ne voulait pas deux pages de la même page dans son index. (Même la version en cache montrée est l’autre URL!) Si vous faites des doublons exacts entre paires de langues de pays dans les tags hreflang, par exemple, les pages peuvent être pliées en une seule version et afficher la mauvaise page pour les emplacements affectés.

De temps en temps, vous verrez ceci avec le détournement de SERPs, où une recherche [info:] sur un domaine / page montrera réellement un domaine / page complètement différent. Je l’ai fait lors du concours SEO Hero de Wix plus tôt cette année, quand un domaine plus fort et mieux établi a copié mon site Web et a pu prendre ma position dans les SERPs pendant un moment.

& filter = 0 ajouté à l’URL de recherche Google

L’ajout de & filter = 0 à la fin de l’URL dans une recherche Google supprimera les filtres et vous affichera davantage de sites Web dans l’ensemble de considération de Google. Vous pouvez voir deux versions d’une page lorsque vous ajoutez ceci, ce qui peut indiquer des problèmes avec des pages en double qui n’ont pas été regroupées; ils pourraient tous les deux dire qu’ils sont la bonne version, par exemple, et ont des signaux à l’appui.

Cette annexe URL vous montre également d’autres pages éligibles sur les sites Web susceptibles de se classer pour cette requête. Si vous avez plusieurs pages éligibles, vous avez probablement la possibilité de consolider des pages ou d’ajouter des liens internes depuis ces autres pages pertinentes vers la page que vous souhaitez classer.

site: opérateur de recherche

Une recherche [site: domain.com] peut révéler une mine de connaissances sur un site Web. Je rechercherais des pages indexées de manière inattendue, comme des paramètres, des pages dans des sections de site que je ne connais pas, et des problèmes avec des pages indexées qui ne devraient pas l’être (comme un serveur de développement) .

site: mot-clé domain.com

Vous pouvez utiliser [site: mot-clé domain.com] pour rechercher des pages pertinentes sur votre site afin d’examiner de nouveau les opportunités de consolidation ou de liens internes.

Cette recherche est également intéressante car elle indique si votre site Web est éligible pour un extrait de ce mot clé. Vous pouvez effectuer cette recherche sur plusieurs des sites Web les plus importants pour voir ce qui est inclus dans les extraits de site qui sont susceptibles d’essayer de découvrir ce qui manque à votre site Web ou pourquoi l’un d’entre eux est diffusé sur un autre.

Si vous utilisez une «phrase» au lieu d’un mot-clé, vous pouvez vérifier si le contenu est récupéré par Google, ce qui est pratique sur les sites Web basés sur JavaScript.

Statique vs. dynamique

Lorsque vous traitez avec JavaScript (JS), il est important de comprendre que JS peut réécrire le code HTML d’une page. Si vous regardez la source view ou même le cache de Google, ce que vous regardez est le code non traité. Ce ne sont pas de superbes vues de ce qui peut réellement être inclus une fois que le JS est traité.

Utilisez « inspect » au lieu de « view-source » pour voir ce qui est chargé dans le DOM (Document Object Model) et utilisez « Fetch and Render » dans Google Search Console au lieu du cache de Google pour avoir une meilleure idée de la façon dont Google voit la page.

Ne dites pas aux gens que c’est faux parce que ça a l’air drôle dans le cache ou que quelque chose n’est pas dans la source; c’est peut-être toi qui as tort. Il peut y avoir des moments où vous regardez dans la source et dites que quelque chose est correct, mais quand il est traité, quelque chose dans la section <head> se casse et se termine tôt, jetant de nombreuses balises canoniques ou hreflang dans la section <body> ils ne sont pas pris en charge.

Pourquoi ces balises ne sont-elles pas supportées dans le corps? Probablement parce que cela permettrait le détournement de pages d’autres sites Web.

Vérifier les redirections

Vous pouvez effectuer l’une de ces vérifications avec les outils de développement Chrome ou, pour simplifier, vous pouvez rechercher des extensions telles que Rediriger le chemin ou Tracer la redirection de lien . Il est important de voir comment vos redirections sont traitées. Si vous vous inquiétez d’un certain chemin et si les signaux sont consolidés, consultez le rapport « Liens vers votre site » dans Google Search Console et recherchez les liens vers les pages précédentes de la chaîne pour voir s’ils figurent dans le rapport. la page et affichée comme « Via ce lien intermédiaire. » Si elles le sont, c’est une valeur sûre Google compte les liens et la consolidation des signaux à la dernière version de la page.

Pour les réponses d’en-tête, les choses peuvent devenir intéressantes. Bien que rares, vous pouvez voir ici des balises canoniques et des balises hreflang qui peuvent entrer en conflit avec d’autres balises de la page. Les redirections utilisant l’en-tête HTTP peuvent également poser problème. Plus d’une fois j’ai vu des gens définir le « Lieu: » pour la redirection sans aucune information dans le domaine, puis rediriger les gens sur la page avec, disons, une redirection JS. Eh bien, l’utilisateur va à la bonne page, mais Googlebot traite l’emplacement: d’abord et va dans les abysses. Ils sont redirigés vers rien avant de pouvoir voir l’autre redirection.

Vérifiez plusieurs ensembles de tags

De nombreuses balises peuvent figurer dans plusieurs emplacements, tels que l’en-tête HTTP, la section <head> et le sitemap. Vérifiez les incohérences entre les balises. Il n’y a rien qui arrête plusieurs ensembles de balises sur une page non plus. Peut-être que votre template a ajouté une balise meta robots pour index, alors un plugin a un set pour noindex.

Vous ne pouvez pas supposer qu’il y a une étiquette pour chaque article, alors n’arrêtez pas votre recherche après la première. J’ai vu jusqu’à quatre ensembles de meta tags robots sur la même page, avec trois d’entre eux mis à l’index et un ensemble comme noindex, mais celui-noindex gagne à chaque fois.

Changer d’UA à Googlebot

Parfois, vous avez juste besoin de voir ce que Google voit. Il y a beaucoup de problèmes intéressants liés au camouflage, à la redirection des utilisateurs et à la mise en cache. Vous pouvez changer cela avec les outils de développement Chrome ou avec un plugin comme User-Agent Switcher . Je recommanderais si vous allez faire cela que vous le faites en mode navigation privée. Vous voulez vérifier que Googlebot n’est pas redirigé quelque part – comme peut-être qu’ils ne peuvent pas voir une page dans un autre pays parce qu’ils sont redirigés en fonction de l’adresse IP des États-Unis vers une autre page.

Robots.txt

Vérifiez votre fichier robots.txt pour tout ce qui pourrait être bloqué. Si vous bloquez l’exploration d’une page et que vous placez une canonique sur cette page vers une autre page ou une balise noindex, Google ne peut pas explorer la page et ne peut pas voir ces balises.

Un autre conseil important est de surveiller votre fichier robots.txt pour les changements. Il peut y avoir quelqu’un qui change quelque chose, ou il peut y avoir des problèmes involontaires avec la mise en cache partagée avec un serveur de dev, ou un certain nombre d’autres problèmes – il est donc important de garder un œil sur les modifications apportées à ce fichier.

Vous pouvez avoir un problème avec une page non indexée et ne pas être en mesure de comprendre pourquoi. Bien que non officiellement supporté, un noindex via robots.txt gardera une page hors de l’index, et c’est juste un autre endroit possible à vérifier.

Sauvez-vous des maux de tête

Chaque fois que vous pouvez mettre en place des tests automatisés ou supprimer des points de défaillance – ces choses que vous savez juste que quelqu’un, quelque part va gâcher – le faire. Mettre à l’échelle les choses de votre mieux, car il y a toujours plus de travail à faire que de ressources pour le faire. Quelque chose d’ aussi simple que la fixation d’ un politique de sécurité de contenu pour-demandes de mise à jour en situation d’ insécurité quand va HTTPS vous empêcher d’avoir à dire à tous vos développeurs qu’ils doivent changer toutes ces ressources pour résoudre les problèmes de contenu mixte.

Si vous savez qu’un changement est susceptible de casser d’autres systèmes, évaluez les résultats de ce changement avec les ressources nécessaires et les chances de casser quelque chose et les ressources nécessaires pour réparer le système si cela se produit. Il y a toujours des compromis avec le SEO technique, et juste parce que quelque chose est correct ne signifie pas toujours que c’est la meilleure solution (malheureusement), alors apprenez à travailler avec d’autres équipes pour peser le risque / la récompense des changements que vous suggérez.

Résumer

Dans un environnement complexe, de nombreuses équipes peuvent travailler sur des projets. Vous pouvez avoir plusieurs systèmes CMS, infrastructures, CDN, etc. Vous devez supposer que tout va changer et tout va se casser à un moment donné. Il y a tellement de points d’échec que cela rend le travail d’un SEO technique intéressant et stimulant. Vous devez visiter https://referencementnaturel.page-internet.net  pour faire un bon référencement Google.