Intro
Duplikatindhold findes mere end ét sted på en URL-adresse. Duplikeret indhold forvirrer søgemaskinerne, fordi de ikke kan afgøre, hvilken version af indholdet der er den mest relevante, og hvilken der skal indlæses i et SERP fra en tilknyttet søgeforespørgsel. For at give de mest præcise søgeresultater vil den pågældende motor afstå fra at vise duplikatindhold og vælge den version, der mest afspejler det "rigtige" indhold.
Kodning af eksempler på duplikeret indhold
Rel=Kanonisk kodeeksempel
<head> <link rel="canonical" href="https://123abc.com/blog/" /> </head> <link rel="canonical" href="https://123abc.com/blog/" /> </head>
Meta Robots kodeeksempel
<head> <meta name="robots" content="noindex, follow" /> </head> </head>
De mest hyppige problemer med duplicate content
- Søgemaskinerne har svært ved at vælge, hvilket indhold de vil medtage i deres indeks
- Søgemaskinerne ved ikke, om de skal dele linkjuicen eller kanalisere den til en enkelt side.
- Søgemaskinerne er ikke sikre på, hvilken side der skal rangere for bestemte resultatsider Duplikatindhold kan være årsagen til, at websteder mister placering og trafik. Det kan også få søgemaskinerne til at give irrelevante resultater.
Eksempler på duplikatindhold
URL-parametre
kliksporing og analytisk kodning kan resultere i duplikeret indhold
Printervenlige dokumenter
når der genereres en printervenlig version af en side og indekset, kan de forårsage problemer med dobbelt indhold.
Sessions-ID
dette sker, når hver besøgende på webstedet tildeles et sessions-id for det pågældende websted, og derefter tildeles et andet sessions-id, som gemmes i URL'en.
Top SEO-taktikker: Dupliceret indhold
Søgemaskinerne kanoniserer duplikeret indhold, når det findes på flere URL'er. Dette gøres ved at oprette en 301-omdirigering. Dette korrigerer URL'en og bruger rel=canonical-tagget.
En 301-omdirigering er den bedste måde at løse en indholdsduplikering på. Når der findes flere sider, kombineres de til én side med større relevans, hvilket har en positiv indvirkning på placeringen for søgemaskiner, der støder på denne side.
Rel=canonical er den anden mulighed for at håndtere duplikeret indhold. Dette tag skaber en løsning, der deler linkjuicen op og giver den videre til siderne og kræver mindre konstruktionstid. Dette tag tilføjes til HTML-hovedet i den digitale sidens overskrift. Metatagget genskabes ikke, men der tilføjes i stedet en rel-parameter. Der kan tilføjes værdier i meta-robot-tags for sider, der ikke skal med i indekset. Ved at tilføje disse værdier kan søgemaskinernes robotter scanne siderne og ikke tilføje dem til indekset to gange.
For eksempel:
<link href="https://www.123abc.com/canonical-version-of-page/" rel="canonical" />
Google Web Tools til parameterstyring
Google Webmaster-værktøjerne giver domæner mulighed for at indstille foretrukne URL-parametre for forskellige sider. Der er en ulempe ved denne metode, idet den kun fungerer med Google-søgemaskinen. Ændringer, der foretages ved hjælp af disse værktøjer, vil ikke påvirke ændringer på Bing eller andre søgemaskiner.
Indstillinger for domænepræferencer
Disse er indstillet for alle steder. Google bruger denne enkle metode til at afgøre, om et websted skal vises med en www-rubrik i SERP-listerne. URL'er kan lide af mindre fejl som f.eks. fejl i kapitalisering, der kan forårsage duplikeringsfejl. Hvis den samme webside skrives tre gange, og der skrives forskellige bogstaver med stort i hver enkelt, vil søgemaskinen tælle alle tre sider som forskellige og behandle dem som duplikeret indhold. Et rel=canonical implementeringsværktøj, der anvendes på den 2. og 3. URL, vil hjælpe søgemaskinerne med at pege tilbage til den første side og behandle de resterende to sider som identiske kopier af den første side.
Ingen indeksbetjening (Følg)
Hvis et websted har problemer med paginering, kan der implementeres et meta-robottag med noindex follow-værdier på disse sider. Det vil gøre det muligt for disse specifikke sider at blive crawlet af søgemaskinernes robotter, men forhindre dem i at blive inkluderet i indeksene.
Flere metoder til fjernelse af duplikeret indhold
Sørg for, at interne links er konsekvent opbygget under hele opbygningen af et websted. Når du deler oplysninger med andre websteder, skal du sikre dig, at det linkede indhold er direkte tilbage til det oprindelige indhold. Gør alt for at minimere mængden af lignende indhold på ethvert websted. Hvis en side er overvældende ens, bør man overveje at kombinere siderne eller tilføje et særskilt og dynamisk indhold, der kan differentiere siderne. Fjern duplikeret indhold fra webstedet ved at fjerne siderne fra indeksene ved hjælp af et værktøj til fjernelse via Google, Bing eller med en metarobot.
Hvis en webmaster beslutter, at den kanoniske version af et websted er www.123abc.com,
skal alle interne links gå til www.123abc.com/example.html
og ikke til https//123abc.com/page.html
(www er bevidst udeladt). Et andet eksempel: Hvis en onlinebutik har en side om jakker til små drenge og en anden side om jakker til små piger, og disse to sider har 95 % af det samme indhold. Webdesigneren i dette eksempel skal udvide siderne med yderligere indhold, der er relevant for hver enkelt URL-adresse, og nye og særskilte sider, der individualiserer dem. En anden løsning ville være, hvis webdesigneren kombinerede de to sider og oprettede én enkelt side om jakker til små børn i stedet for separate sider for piger og drenge. Den nye side ville have den fordel at være meget relevant nyt websted.