Introduzione
Il contenuto duplicato si trova in più punti di un URL. I contenuti duplicati confondono i motori di ricerca perché non riescono a decidere quale versione del contenuto sia più rilevante e quale caricare in una SERP da una query di ricerca associata. Per fornire i risultati di ricerca più accurati, il motore in questione si astiene dal mostrare i contenuti duplicati e sceglie quello che rispecchia maggiormente il contenuto "giusto".
Codifica di esempio dei contenuti duplicati
Esempio di codice Rel=Canonico
<head> <link rel="canonical" href="https://123abc.com/blog/" /> </head>
Esempio di codice Meta Robots
<head> <meta name="robots" content="noindex, follow" /> </head>
I problemi di contenuto duplicato più frequenti
- I motori di ricerca faticano a scegliere quali contenuti includere nel loro indice.
- I motori di ricerca non sanno se dividere il link juice o convogliarlo in un'unica pagina.
- I motori di ricerca non sono sicuri di quale pagina debba essere classificata per determinate pagine di risultati I contenuti duplicati possono essere il motivo per cui i siti perdono posizioni e traffico. Possono anche far sì che i motori di ricerca forniscano risultati irrilevanti.
Esempi di contenuti duplicati
Parametri URL
Il tracciamento dei clic e la codifica analitica possono dare luogo a contenuti duplicati.
Documenti stampabili
quando viene generata una versione printer friendly di una pagina e l'indice possono causare problemi di contenuto duplicato.
ID sessione
si verifica quando a ogni visitatore del sito viene assegnato un ID di sessione per quel sito web e poi un altro ID di sessione viene assegnato e memorizzato nell'URL.
Tattiche SEO Top: Contenuto duplicato
I motori di ricerca canonicalizzano i contenuti duplicati quando si trovano su più URL. Questa canonicità viene effettuata creando un reindirizzamento 301. Questo corregge l'URL e utilizza il tag rel=canonical.
Un reindirizzamento 301 è il modo migliore per risolvere una duplicazione di contenuti. Quando le pagine sono multiple, vengono combinate in un'unica pagina di maggiore rilevanza che influisce positivamente sul posizionamento dei motori di ricerca che incontrano questa pagina.
Il Rel=canonical è l'altra opzione per gestire i contenuti duplicati. Questo tag crea una soluzione che divide il link juice e lo passa alle pagine e richiede meno tempo di costruzione. Questo tag viene aggiunto all'intestazione HTML della pagina digitale. Il meta tag non viene ricreato, ma viene aggiunto un parametro rel. È possibile aggiungere dei valori nei tag meta robot per le pagine che non devono essere incluse nell'indice. L'aggiunta di questi valori consente ai bot dei motori di ricerca di scansionare le pagine e di non aggiungerle due volte all'indice.
**Per esempio
<link href="https://www.123abc.com/canonical-version-of-page/" rel="canonical" />
Strumenti web di Google per la gestione dei parametri
Gli strumenti per i Webmaster di Google consentono ai domini di impostare i parametri URL preferiti per le diverse pagine. Questo metodo ha il difetto di funzionare solo con il motore di ricerca Google. Qualsiasi modifica apportata con questi strumenti non influirà sulle modifiche apportate a Bing o ad altri motori di ricerca.
Impostazioni delle preferenze del dominio
Vengono impostate per tutti i siti. Google utilizza questo semplice metodo per decidere se un sito viene visualizzato con l'intestazione www negli elenchi delle SERP. Gli URL possono essere affetti da errori minori, come errori di capitalizzazione che possono causare errori di duplicazione. Se la stessa pagina web viene scritta tre volte e in ognuna di esse vengono scritte lettere diverse in maiuscolo, il motore di ricerca considererà tutte e tre le pagine come diverse e le tratterà come contenuti duplicati. Uno strumento di implementazione rel=canonical utilizzato sul secondo e sul terzo URL aiuterebbe a riportare i motori di ricerca verso il primo elenco e a trattare i due rimanenti come copie identiche del primo.
Nessun comando di indice (Follow)
Se un sito ha problemi di paginazione, è possibile implementare un tag meta robot con valori noindex follow su quelle pagine. Ciò consentirà a quelle pagine specifiche di essere strisciate dai bot dei motori di ricerca, ma impedirà loro di essere incluse negli indici.
Altri metodi per eliminare i contenuti duplicati
Assicuratevi che i link interni siano costruiti in modo coerente durante la costruzione di qualsiasi sito web. Quando si condividono informazioni con altri siti, verificare che i contenuti collegati rimandino direttamente al contenuto originale. Fare il possibile per ridurre al minimo la quantità di contenuti simili su qualsiasi sito web. Se una pagina è eccessivamente simile, prendete in considerazione la possibilità di combinare le pagine o di aggiungere contenuti distinti e dinamici che le differenzino. Liberate il sito dai contenuti duplicati eliminando le pagine dagli indici utilizzando uno strumento di rimozione di Google, Bing o un meta robot.
Se un webmaster dovesse stabilire che la versione canonica di un sito web è www.123abc.com
, allora tutti i link interni dovrebbero andare a www.123abc.com/example.html
e non a https//123abc.com/pagina.html
(il www è lasciato fuori intenzionalmente). Un altro esempio: se un negozio online ha una pagina sulle giacche per bambini e un'altra sulle giacche per bambine e queste due pagine condividono il 95% dello stesso contenuto. In questo caso, il web designer dovrebbe espandere le pagine per includere contenuti aggiuntivi rilevanti per ogni URL e nuove pagine distinte che le individuino. Un'altra soluzione potrebbe essere quella di unire le due pagine e creare un'unica pagina sui cappotti per bambini, invece di pagine separate per ragazze e ragazzi. La nuova pagina avrebbe il vantaggio di essere molto pertinente al nuovo sito.