Wprowadzenie
Google wprowadziło dwa nowe roboty indeksujące do rodziny Googlebot:
-
GoogleOther-Image
-
GoogleOther-Video
Te nowe crawlery zostały zaprojektowane w celu usprawnienia indeksowania danych binarnych, które według Google będą wspierać badania i rozwój.
Dowiedz się więcej o wpływie sztucznej inteligencji na SEO i marketing cyfrowy.
Wprowadzenie do nowych Crawlerów
Dwa nowe crawlery, GoogleOther-Image i GoogleOther-Video, są zoptymalizowanymi wersjami GoogleOther do pobierania odpowiednio bajtów obrazów i wideo. GoogleOther został początkowo dodany w kwietniu 2023 r., Aby był używany wewnętrznie przez zespoły Google do indeksowania publicznej sieci, zwalniając w ten sposób zasoby dla głównych robotów indeksujących Googlebot.
Odkryj korzyści płynące z integracji treści generowanych przez użytkowników.
GoogleOther-Image
GoogleOther-Image to wersja GoogleOther dostosowana do pobierania publicznie dostępnych adresów URL obrazów. Zgodnie z dokumentacją, będzie ona działać pod tokenami agenta użytkownika GoogleOther-Image
i GoogleOther
. Pełnym ciągiem agenta użytkownika będzie GoogleOther-Image/1.0
.
Poznaj strategie poprawy dokładności treści.
GoogleOther-Video
GoogleOther-Video to wersja GoogleOther przeznaczona do pobierania publicznie dostępnych adresów URL wideo. Podobnie jak GoogleOther-Image, będzie używać tokenów agenta użytkownika GoogleOther-Video
i GoogleOther
. Pełnym ciągiem agenta użytkownika będzie GoogleOther-Video/1.0
.
Przeczytaj o przyszłości sztucznej inteligencji w reklamie cyfrowej.
Cel nowych gąsienic
Google uruchomiło te nowe crawlery, aby lepiej wspierać indeksowanie danych binarnych, które mogą być wykorzystywane do badań i rozwoju. Inicjatywa ta ma na celu poprawę zdolności Google do wydajnej obsługi danych graficznych i wideo.
Zrozumienie roli wytycznych w marketingu opartym na sztucznej inteligencji.
Przegląd robotów indeksujących Google
Google wykorzystuje różne rodzaje robotów indeksujących, w tym:
-
Googlebot: Główny crawler dla produktów wyszukiwania Google, który zawsze przestrzega zasad
robots.txt
. -
Specjalne crawlery: Te crawlery wykonują określone funkcje (takie jak AdsBot) i mogą, ale nie muszą, przestrzegać reguł
robots.
txt. -
Pobieraki uruchamiane przez użytkownika: Narzędzia i funkcje produktów, w których użytkownik końcowy wyzwala pobieranie. Na przykład Google Site Verifier lub niektóre narzędzia Google Search Console wysyłają Google do pobrania strony na podstawie działania użytkownika.
Dowiedz się więcej o tworzeniu wysokiej jakości treści za pomocą sztucznej inteligencji.
Zakresy adresów IP Google i maski DNS
Google wymieniło zakresy adresów IP i maski DNS dla każdego typu crawlera:
-
Googlebot:
googlebot.json
(crawl----.googlebot.com lub geo-crawl----.geo.googlebot.com) -
Specjalne crawlery:
special-crawlers.json
(rate-limited-proxy----.google.com) -
Pobieranie wyzwalane przez użytkownika:
user-triggered-fetchers.json
(---.gae.googleusercontent.com)
Poznaj etykę sztucznej inteligencji w reklamie.
Dlaczego to ma znaczenie
Dla tych, którzy monitorują aktywność indeksowania i aktywność botów na swoich stronach internetowych, ważne jest, aby rozpoznać te nowe crawlery GoogleOther jako legalne Googleboty. Widząc aktywność tych crawlerów w plikach dziennika, można mieć pewność, że jest ona autentyczna i stanowi część wysiłków Google mających na celu poprawę możliwości wyszukiwania i obsługi danych.
Platforma "wszystko w jednym" dla skutecznego SEO
Za każdym udanym biznesem stoi silna kampania SEO. Ale z niezliczonych narzędzi optymalizacji i technik tam do wyboru, może być trudno wiedzieć, gdzie zacząć. Cóż, nie obawiaj się więcej, ponieważ mam właśnie coś, co może pomóc. Przedstawiamy Ranktracker - platformę all-in-one dla skutecznego SEO.
W końcu otworzyliśmy rejestrację do Ranktrackera całkowicie za darmo!
Załóż darmowe kontoLub Zaloguj się używając swoich danych uwierzytelniających