Intro
Duplicerat innehåll finns på mer än ett ställe i en URL. Duplicerat innehåll förvirrar sökmotorerna eftersom de inte kan avgöra vilken version av innehållet som är den mest relevanta och vilken som ska laddas in i en SERP från en associerad sökfråga. För att ge de mest korrekta sökresultaten avstår sökmotorn i fråga från att visa duplicerat innehåll och väljer den som bäst speglar det "rätta" innehållet.
Duplicerat innehåll Provkodning
Rel=Canonical Kodprov
<head> <link rel="canonical" href="https://123abc.com/blog/" /> </head>
Meta Robots-kodprov
<head> <meta name="robots" content="noindex, follow" /> </head>
De vanligaste problemen med dubbelt innehåll
- Sökmotorerna har svårt att välja vilket innehåll de ska inkludera i sitt index.
- Sökmotorer vet inte om de ska dela upp länkjuice eller kanalisera den till en enda sida.
- Sökmotorerna är inte säkra på vilken sida som ska rankas för vissa resultatsidor Duplicerat innehåll kan vara orsaken till att webbplatser förlorar ranking och trafik. Det kan också leda till att sökmotorerna ger irrelevanta resultat.
Exempel på dubbelt innehåll
URL-parametrar
klickspårning och analytisk kodning kan resultera i dubbelt innehåll.
Utskriftsvänliga dokument
När en skrivarvänlig version av en sida genereras och indexet kan de orsaka problem med duplicerat innehåll.
Sessions-ID
Detta inträffar när varje besökare på webbplatsen tilldelas ett sessions-ID för den webbplatsen och sedan ett annat sessions-ID tilldelas och lagras i URL:en.
Top SEO Tactics: Duplicerat innehåll
Sökmotorer kanoniserar duplicerat innehåll när det finns på flera webbadresser. Detta görs genom att skapa en 301-omdirigering. Detta korrigerar URL:n och använder taggen rel=canonical.
En 301-omdirigering är det bästa sättet att lösa en innehållsdubblering. När sidor finns i flera exemplar kombineras de till en sida med starkare relevans som påverkar rankningen positivt för de sökmotorer som stöter på denna sida.
Rel=canonical är det andra alternativet för att hantera duplicerat innehåll. Den här taggen skapar en lösning som delar upp länkjuicen och skickar den vidare till sidorna och kräver mindre konstruktionstid. Den här taggen läggs till i HTML-huvudet för den digitala sidans rubrik. Metataggen återskapas inte, utan i stället läggs en rel-parameter till. Värden kan läggas till i meta-robottaggarna för sidor som inte ska ingå i indexet. Genom att lägga till dessa värden kan sökmotorrobotar skanna sidorna och inte lägga till dem i indexet två gånger.
Till exempel:
<link href="https://www.123abc.com/canonical-version-of-page/" rel="canonical" />
Google Web Tools för hantering av parametrar
I Googles verktyg för webbansvariga kan domäner ställa in önskade URL-parametrar för olika sidor. Det finns en nackdel med den här metoden eftersom den bara fungerar med Googles sökmotor. Ändringar som görs med hjälp av dessa verktyg påverkar inte ändringar på Bing eller andra sökmotorer.
Inställningar för domänpreferenser
Dessa är inställda för alla webbplatser. Google använder denna enkla metod för att avgöra om en webbplats visas med en www-rubrik i SERP-listorna. URL:er kan drabbas av mindre fel, t.ex. fel i kapitalisering, som kan orsaka dupliceringsfel. Om samma webbsida skrivs tre gånger och olika bokstäver skrivs med stor bokstavsbeteckning i varje sida, skulle sökmotorn räkna alla tre sidorna som olika och behandla dem som duplicerat innehåll. Ett rel=canonical-verktyg som används på den andra och tredje webbadressen skulle hjälpa sökmotorerna att peka tillbaka till den första sidan och behandla de återstående två som identiska kopior av den första.
No Index Command (Följ)
Om en webbplats har problem med sidindelning kan en meta-robottagg med noindex follow-värden införas på dessa sidor. Det gör att dessa specifika sidor kan kryssas av sökmotorernas robotar, men förhindrar att de tas med i indexen.
Fler metoder för att eliminera duplicerat innehåll
Se till att de interna länkarna är konsekvent uppbyggda under hela uppbyggnaden av en webbplats. När du delar information med andra webbplatser ska du se till att det länkade innehållet är direkt kopplat till det ursprungliga innehållet. Gör allt för att minimera mängden liknande innehåll på en webbplats. Om en sida är överväldigande likartad bör man överväga att kombinera sidorna eller lägga till distinkt och dynamiskt innehåll som skiljer sidorna åt. Befria webbplatsen från duplicerat innehåll genom att ta bort sidorna från indexen med hjälp av ett borttagningsverktyg via Google, Bing eller en metarobot.
Om en webbansvarig fastställer att den kanoniska versionen av en webbplats är www.123abc.com
, ska alla interna länkar gå till www.123abc.com/example.html
och inte https//123abc.com/page.html
(www utelämnas avsiktligt). Ett annat exempel: Om en nätbutik har en sida om jackor för små pojkar och en annan sida om jackor för små flickor och dessa två sidor har 95 % av samma innehåll. Webbdesignern i det här exemplet skulle behöva utöka sidorna för att inkludera ytterligare innehåll som är relevant för varje URL och nya och tydliga sidor som individualiserar dem. En annan lösning vore om webbdesignern kombinerade de två sidorna och skapade en enda sida om jackor för små barn i stället för separata sidor för flickor och pojkar. Den nya sidan skulle ha fördelen av att vara mycket relevant ny webbplats.