Wprowadzenie
Google potwierdziło, że renderuje teraz wszystkie strony internetowe, w tym te, które są mocno obciążone JavaScriptem, w ramach procesu indeksowania wyszukiwania. Aktualizacja ta została omówiona w ostatnim odcinku podcastu Google "Search Off The Record", w którym udział wzięli Zoe Clifford z zespołu renderującego wraz z Martinem Splittem i Johnem Muellerem z Search Relations.
Kompleksowe renderowanie na potrzeby indeksowania wyszukiwania
Podczas podcastu Clifford szczegółowo opisał, w jaki sposób Google przetwarza strony internetowe za pomocą przeglądarki bezgłowej, zapewniając, że cała zawartość, w tym ta, która w dużym stopniu opiera się na JavaScript, jest w pełni indeksowana. Ten proces renderowania symuluje sposób, w jaki użytkownik korzystałby ze strony internetowej, umożliwiając Google przechwycenie pełnej treści po wykonaniu wszystkich skryptów i pełnym załadowaniu strony.
Clifford stwierdził: "Uruchamiamy przeglądarkę w potoku indeksowania, dzięki czemu możemy indeksować widok strony internetowej tak, jak widziałby ją użytkownik po załadowaniu i wykonaniu JavaScript". Podejście to ma zastosowanie do wszystkich stron HTML, zapewniając dokładny proces indeksowania, chociaż nie obejmuje innych typów treści, takich jak pliki PDF.
Zaangażowanie Google w kompleksowe indeksowanie
Podcast ujawnił, że Google zobowiązuje się do renderowania każdej strony HTML, pomimo zasobochłonnego charakteru tego procesu. To poświęcenie podkreśla wysiłki Google mające na celu zapewnienie, że nawet strony internetowe zawierające dużo JavaScript są w pełni dostępne i indeksowane, zwiększając widoczność i dostępność treści internetowych.
Wprowadzenie Googlebota Evergreen
Dyskusja dotyczyła również przyjęcia przez Google "Evergreen Googlebot" w 2019 roku. Ta wersja Googlebota pozostaje na bieżąco z najnowszą stabilną wersją Chrome, poprawiając jego zdolność do renderowania i indeksowania współczesnych stron internetowych, które często wykorzystują zaawansowane frameworki JavaScript.
Implikacje dla właścicieli i deweloperów stron internetowych
-
Ulepszone przetwarzanie JavaScript: Witryny wykorzystujące znaczące skrypty JavaScript mogą mieć pewność, że Google będzie je skutecznie indeksować.
-
Znaczenie szybkości strony internetowej: Pomimo ulepszonej obsługi JavaScript, szybkość ładowania strony internetowej pozostaje kluczowym czynnikiem dla doświadczenia użytkownika i SEO.
-
Prostota i dostępność: Uproszczenie projektu strony internetowej tam, gdzie to możliwe, może pomóc zarówno wyszukiwarkom, jak i użytkownikom, zwłaszcza tym z wolniejszymi połączeniami internetowymi lub starszymi urządzeniami.
-
Testowanie i optymalizacja: Narzędzia takie jak Google Fetch As Google mogą pomóc webmasterom upewnić się, że ich strony są prawidłowo renderowane i indeksowane.
-
Szeroka dostępność: Deweloperzy są zachęcani do zapewnienia, że podstawowa zawartość jest dostępna, nawet jeśli JavaScript nie zostanie załadowany, zaspokajając potrzeby użytkowników o różnych potrzebach i możliwościach.
Wnioski
Postępy Google w technologii renderowania oferują deweloperom większą elastyczność, ale podkreślają ciągłe znaczenie optymalizacji wydajności i użyteczności stron internetowych. Koncentrując się na tworzeniu szybkich, przyjaznych dla użytkownika stron internetowych, programiści mogą zapewnić pozytywne wrażenia zarówno dla Google, jak i swoich odbiorców.
Aby uzyskać więcej informacji na temat działania procesów indeksowania i renderowania stron internetowych Google, zapoznaj się z powiązanymi zasobami, takimi jak "Google's Web Crawler Fakes Being 'Idle' To Render JavaScript" i "Google's John Mueller: Move JavaScript Below the Head Element". Zasoby te zawierają dodatkowe wskazówki dotyczące optymalizacji treści internetowych pod kątem lepszego indeksowania w wyszukiwarkach i dostępności dla użytkowników.