Intro
I en nylig SEO Office Hours-podcast svarede Googles John Mueller på et spørgsmål om effekten af at blokere Google fra at crawle en webside på "linking power" af interne og eksterne links. Hans svar gav værdifuld indsigt i, hvordan Google opfatter og håndterer links, og gav et brugercentreret perspektiv på dette tekniske aspekt af SEO.
Links' rolle i SEO
Links, både interne og eksterne, er grundlæggende i SEO for at formidle vigtigheden og relevansen af websider. Interne links hjælper Google med at forstå et websteds struktur og prioritere sider, mens eksterne links (backlinks) traditionelt ses som anbefalinger, der kan øge et websteds autoritet og rangeringspotentiale. De nøjagtige mekanismer, som Google bruger til at vurdere disse links, især de eksterne, er dog stadig delvist spekulative og baseret på ældre, muligvis forældede oplysninger.
Indvirkning af blokering af gennemsøgning på links
Spørgsmålet, der blev stillet til Mueller, var, om det at blokere Google fra at crawle en side ville ophæve linkstyrken af links på den side. Muellers svar var formuleret ud fra en brugers perspektiv og antydede, at hvis en side ikke er tilgængelig, kan brugere - og i forlængelse heraf søgemaskiner - ikke interagere med eller følge de links, den indeholder. At blokere en side fra at blive crawlet ophæver derfor effektivt indflydelsen fra dens links, da de er usynlige for Google.
Et brugerbaseret perspektiv på links
Mueller understregede en brugercentreret tilgang til at forstå effekten af links. Dette perspektiv står i kontrast til ældre, mere mekaniske synspunkter, såsom den misforståede tro på, at det at placere nøgleord eller links i specifikke sammenhænge (som den gamle praksis med at linke fra en side om "blæksprutteblæk" til en side om printerblæk) ville påvirke placeringen. I stedet foreslår Mueller, at man overvejer, om linkene giver værdi eller relevans set fra brugerens synspunkt.
Dette skift til et brugerbaseret perspektiv stemmer overens med bredere SEO-tendenser, der prioriterer brugeroplevelse og relevans frem for rent tekniske manipulationer.
Sørg for, at links kan crawles
For at sikre, at vigtige sider kan findes, anbefaler Mueller, at man sørger for, at de er linket fra indeksérbare og relevante sider på hjemmesiden. Blokering af kritiske sider fra crawling eller indeksering kan gøre det vanskeligt for søgemaskiner at finde og rangere dem, hvilket potentielt kan underminere SEO-indsatsen.
Misforståelser om robotters metatags
Mueller fremhævede også en almindelig misforståelse vedrørende brugen af robots-metatagget. Nogle hjemmesideejere bruger fejlagtigt direktivet noindex, follow
i den tro, at det vil forhindre en side i at blive indekseret, mens søgemaskinerne stadig kan følge linkene på den. Men hvis en side ikke er indekseret, kan søgemaskinerne ikke få adgang til eller følge dens links, hvilket gør dette direktiv ineffektivt. Mens nofollow-direktivet
kan forhindre crawlere i at følge links, er der desuden ikke noget tilsvarende "follow"-direktiv, der kan tvinge søgemaskiner til at følge links.
Konklusion
Muellers indsigt understreger vigtigheden af en brugercentreret tilgang til SEO, især i forbindelse med linkhåndtering og crawl management. At sikre, at kritiske sider er tilgængelige og linket fra relevant, indekserbart indhold, er afgørende for at opretholde linkstyrken og den overordnede synlighed af et site. I takt med at SEO udvikler sig, er fokus på ægte brugerværdi og -oplevelse fortsat nøglen til at tilpasse sig søgemaskinernes algoritmer og opnå bæredygtige resultater.