Intro
Google heeft een nieuwe techniek geïntroduceerd in zijn webcrawlingproces om het renderen en indexeren van JavaScript-intensieve websites te verbeteren. Deze aanpak bestaat uit het simuleren van "inactieve" toestanden in de browseromgeving, waardoor bepaalde JavaScript-gebeurtenissen worden geactiveerd die anders mogelijk worden gemist, waardoor de crawler beter in staat is om uitgestelde inhoud op webpagina's volledig te renderen en te indexeren.
De "inactieve" simulatietechniek
Tijdens een recente aflevering van de podcast "Search Off The Record" legde Zoe Clifford van Google's renderingteam uit hoe Googlebot nu periodes van inactiviteit simuleert om JavaScript-events te activeren, met name requestIdleCallback
. Deze functie wordt vaak gebruikt door ontwikkelaars om het laden van niet-kritieke inhoud uit te stellen tot de browser niet bezig is. Voorheen betekende de efficiëntie van Googlebot bij het renderen van pagina's dat er zelden een ruststand werd bereikt, waardoor sommige inhoud niet goed werd geladen en geïndexeerd.
Clifford deelde een voorbeeld van een populaire videowebsite die het laden van de inhoud uitstelde tot na het activeren van de requestIdleCallback
. Omdat de browser echter nooit echt inactief was, werd de callback niet uitgevoerd, wat leidde tot onvolledige paginaladingen.
Verbeteringen in renderproces
Om dit aan te pakken, doet Googlebot nu alsof hij met tussenpozen inactief is, zelfs tijdens actieve renderingtaken. Deze wijziging zorgt ervoor dat idle callbacks worden geactiveerd, zodat alle inhoud, inclusief uitgestelde elementen, kan worden geladen en geïndexeerd. Deze aanpassing is vooral cruciaal voor sites met veel JavaScript, waar het laden van inhoud vaak wordt uitgesteld om de prestaties te optimaliseren.
Aanbevelingen voor webontwikkelaars
Clifford benadrukte het belang van het implementeren van gracieuze foutafhandeling in JavaScript om problemen zoals lege pagina's of ontbrekende inhoud te voorkomen, die de indexering negatief kunnen beïnvloeden. Ontwikkelaars worden aangemoedigd om fouten efficiënt af te handelen, zodat zelfs als bepaalde code faalt, de pagina nog steeds de inhoud goed kan weergeven.
Implicaties voor SEO-professionals
Voor SEO-professionals benadrukt deze ontwikkeling de noodzaak van voortdurende websitebewaking en -tests om potentiële weergaveproblemen op te sporen. Samenwerking met ontwikkelteams is essentieel om ervoor te zorgen dat websites zowel gebruiksvriendelijk zijn als geoptimaliseerd voor zoekmachines. Op de hoogte blijven van hoe zoekmachines JavaScript verwerken en pagina's renderen is cruciaal voor het behouden en verbeteren van de zichtbaarheid in zoekmachines.
Conclusie
Google's aanpassing om JavaScript-intensieve websites te kunnen verwerken door inactieve toestanden te simuleren, betekent een belangrijke vooruitgang in webcrawling- en indexeringstechnologie. Deze verandering verbetert niet alleen de nauwkeurigheid van contentindexering, maar benadrukt ook de dynamische aard van SEO en webontwikkelingspraktijken.
Voor meer inzicht in de renderpraktijken van Google en hoe u deze kunt optimaliseren, kunt u gerelateerde discussies en bronnen bekijken, zoals Google's aanpak voor het renderen van alle pagina's, inclusief sites met veel JavaScript. Deze informatie is van onschatbare waarde voor ontwikkelaars en SEO-professionals die de websiteprestaties en de zichtbaarheid in zoekmachines willen optimaliseren.