Intro
Le contenu dupliqué se trouve à plus d'un endroit sur une URL. Le contenu dupliqué perturbe les moteurs de recherche car ils ne peuvent pas décider quelle version du contenu est la plus pertinente et laquelle charger dans une SERP à partir d'une requête de recherche associée. Pour fournir les résultats de recherche les plus précis, le moteur en question s'abstiendra d'afficher le contenu dupliqué et choisira celui qui reflète le mieux le "bon" contenu.
Exemple de codage de contenu dupliqué
Rel=Canonical Exemple de code
<head> <link rel="canonical" href="https://123abc.com/blog/" /> </head>
Exemple de code Meta Robots
<head> <meta name="robots" content="noindex, follow" /> </head>
Les problèmes de contenu dupliqué les plus fréquents
- Les moteurs de recherche ont du mal à choisir le contenu à inclure dans leur index.
- Les moteurs de recherche ne savent pas s'ils doivent partager le jus de lien ou le canaliser vers une seule page.
- Les moteurs de recherche ne savent pas quelle page doit être classée pour certaines pages de résultats Les contenus en double peuvent être la raison pour laquelle les sites perdent du classement et du trafic. Il peut également amener les moteurs de recherche à fournir des résultats non pertinents.
Exemples de contenu dupliqué
Paramètres d'URL
Le suivi des clics et le codage analytique peuvent entraîner la duplication du contenu.
Documents imprimables
lorsqu'une version imprimable d'une page est générée et l'index, ils peuvent causer des problèmes de contenu dupliqué.
ID des sessions
Cela se produit lorsque chaque visiteur du site se voit attribuer un ID de session pour ce site Web, puis un autre ID de session est attribué et stocké dans l'URL.
Top SEO Tactics : Contenu dupliqué
Les moteurs de recherche canonisent le contenu dupliqué lorsqu'il se trouve sur plusieurs URL. Ce canonical est fait en créant une redirection 301. Celle-ci corrige l'URL et utilise la balise rel=canonical.
Une redirection 301 est le meilleur moyen de résoudre une duplication de contenu. Lorsque des pages se trouvent sur plusieurs URL, elles sont combinées en une seule page plus pertinente qui a un impact positif sur le classement des moteurs de recherche qui rencontrent cette page.
La balise Rel=canonical est l'autre option pour traiter le contenu dupliqué. Cette balise crée une solution qui divise le jus de lien et le transmet aux pages et nécessite moins de temps de construction. Cette balise est ajoutée à l'en-tête HTML de l'en-tête de la page numérique. La balise meta n'est pas recréée, mais un paramètre rel est ajouté. Des valeurs peuvent être ajoutées dans les balises meta robot pour les pages qui ne doivent pas être incluses dans l'index. L'ajout de ces valeurs permettra aux robots des moteurs de recherche de balayer les pages et de ne pas les ajouter deux fois à l'index.
Par exemple:
<link href="https://www.123abc.com/canonical-version-of-page/" rel="canonical" />
Les outils Web de Google pour la gestion des paramètres
Les outils Google Webmaster permettent aux domaines de définir des paramètres d'URL préférés pour différentes pages. L'inconvénient de cette méthode est qu'elle ne fonctionne qu'avec le moteur de recherche Google. Les modifications apportées à l'aide de ces outils n'auront aucune incidence sur les modifications apportées à Bing ou à d'autres moteurs de recherche.
Paramètres de préférence du domaine
Ces paramètres sont définis pour tous les sites. Google utilise cette méthode simple pour décider si un site est affiché avec un titre www dans les listes SERP. Les URL peuvent souffrir d'erreurs mineures, comme des erreurs de capitalisation qui peuvent provoquer des erreurs de duplication. Si la même page Web est écrite trois fois et que des lettres différentes sont mises en majuscules dans chacune d'elles, le moteur de recherche considérera les trois pages comme différentes et les traitera comme du contenu dupliqué. Un outil de mise en œuvre de rel=canonical utilisé sur les deuxième et troisième URL permettrait de renvoyer les moteurs de recherche vers la première liste et de traiter les deux autres comme des copies identiques de la première.
Commande No Index (Follow)
Si un site a des problèmes de pagination, une balise meta robot avec des valeurs de suivi noindex peut être mise en place sur ces pages. Cela permettra à ces pages spécifiques d'être explorées par les robots des moteurs de recherche mais les empêchera d'être incluses dans les index.
Autres méthodes d'élimination du contenu dupliqué
Assurez-vous que les liens internes sont construits de manière cohérente tout au long de la construction d'un site Web. Lorsque vous partagez des informations avec d'autres sites, confirmez que le contenu lié renvoie directement au contenu original. Faites tout votre possible pour minimiser la quantité de contenu similaire sur un site Web. Si une page est excessivement similaire, envisagez de combiner les pages ou d'ajouter un contenu distinct et dynamique qui différenciera les pages. Débarrassez le site du contenu dupliqué en éliminant les pages des index à l'aide d'un outil de suppression via Google, Bing ou avec un méta-robot.
Si un webmestre détermine que la version canonique d'un site Web est www.123abc.com
, alors tous les liens internes doivent aller vers www.123abc.com/example.html
et non https//123abc.com/page.html
(le www est laissé de côté intentionnellement). Autre exemple, si une boutique en ligne a une page sur les vestes pour petits garçons et une autre sur les vestes pour petites filles et que ces deux pages partagent 95% du même contenu. Dans cet exemple, le concepteur Web devra développer les pages pour inclure du contenu supplémentaire pertinent pour chaque URL et de nouvelles pages distinctes qui les individualisent. Une autre solution consisterait à combiner les deux pages et à créer une seule page sur les manteaux pour les petits enfants au lieu de pages distinctes pour les filles et les garçons. La nouvelle page aurait l'avantage d'être très pertinente nouveau site.