Intro
Google hat eine neue Technik für sein Web-Crawling-Verfahren eingeführt, um das Rendering und die Indexierung von JavaScript-lastigen Websites zu verbessern. Bei diesem Ansatz werden "Leerlauf"-Zustände in der Browser-Umgebung simuliert, wodurch bestimmte JavaScript-Ereignisse ausgelöst werden, die andernfalls übersehen werden könnten, wodurch die Fähigkeit des Crawlers verbessert wird, zeitversetzte Inhalte auf Webseiten vollständig zu rendern und zu indizieren.
Die "Idle"-Simulationstechnik
In einer kürzlich erschienenen Folge des Podcasts "Search Off The Record" erklärte Zoe Clifford vom Rendering-Team von Google, wie Googlebot jetzt Leerlaufzeiten simuliert, um JavaScript-Ereignisse auszulösen, insbesondere requestIdleCallback
. Diese Funktion wird häufig von Entwicklern verwendet, um das Laden von nicht kritischen Inhalten zu verschieben, bis der Browser nicht ausgelastet ist. Zuvor erreichte Googlebot aufgrund seiner Effizienz beim Rendern von Seiten nur selten einen Leerlaufzustand, was dazu führte, dass einige Inhalte nicht ordnungsgemäß geladen und indiziert wurden.
Clifford zeigte ein Beispiel einer beliebten Video-Website, die das Laden ihrer Inhalte verzögerte, bis der requestIdleCallback
ausgelöst wurde. Da der Browser jedoch nie wirklich inaktiv war, wurde der Callback nicht ausgeführt, was zu unvollständigen Seitenladevorgängen führte.
Erweiterungen im Rendering-Prozess
Um dieses Problem zu beheben, gibt Googlebot nun in bestimmten Abständen vor, im Leerlauf zu sein, selbst während aktiver Rendering-Aufgaben. Durch diese Änderung wird sichergestellt, dass Leerlauf-Callbacks ausgelöst werden, so dass alle Inhalte, einschließlich verzögerter Elemente, geladen und indiziert werden können. Diese Anpassung ist besonders wichtig für JavaScript-lastige Websites, bei denen das Laden von Inhalten zur Leistungsoptimierung oft verzögert wird.
Empfehlungen für Webentwickler
Clifford wies darauf hin, wie wichtig es ist, in JavaScript eine vernünftige Fehlerbehandlung zu implementieren, um Probleme wie leere Seiten oder fehlende Inhalte zu vermeiden, die sich negativ auf die Indexierung auswirken können. Die Entwickler werden ermutigt, Fehler effizient zu handhaben und sicherzustellen, dass die Seite auch bei fehlerhaftem Code ihren Inhalt korrekt wiedergeben kann.
Auswirkungen für SEO-Fachleute
Für SEO-Experten unterstreicht diese Entwicklung die Notwendigkeit einer kontinuierlichen Überwachung und Prüfung von Websites, um potenzielle Rendering-Probleme zu erkennen. Die Zusammenarbeit mit Entwicklungsteams ist unerlässlich, um sicherzustellen, dass Websites sowohl benutzerfreundlich als auch für Suchmaschinen optimiert sind. Um die Sichtbarkeit in Suchmaschinen zu erhalten und zu verbessern, ist es wichtig, darüber informiert zu sein, wie Suchmaschinen mit JavaScript umgehen und Seiten darstellen.
Schlussfolgerung
Die Anpassung von Google an die Handhabung von JavaScript-lastigen Websites durch die Simulation von Leerlaufzuständen stellt einen bedeutenden Fortschritt in der Web-Crawling- und Indizierungstechnologie dar. Diese Änderung verbessert nicht nur die Genauigkeit der Inhaltsindizierung, sondern unterstreicht auch die dynamische Natur von SEO- und Webentwicklungspraktiken.
Weitere Einblicke in die Rendering-Praktiken von Google und wie man sie optimieren kann, finden Sie in verwandten Diskussionen und Ressourcen, z. B. in Googles Ansatz für das Rendering aller Seiten, einschließlich JavaScript-lastiger Websites. Diese Informationen sind von unschätzbarem Wert für Entwickler und SEO-Experten, die die Leistung von Websites und die Sichtbarkeit in Suchmaschinen optimieren möchten.