Вступ
Компанія Google запровадила нову технологію сканування веб-сторінок, щоб покращити рендеринг та індексацію веб-сайтів з великим вмістом JavaScript. Цей підхід передбачає імітацію станів "простою" в середовищі браузера, запускаючи певні події JavaScript, які в іншому випадку можуть бути пропущені, тим самим покращуючи здатність сканера повністю відображати та індексувати відкладений контент на веб-сторінках.
Техніка "холостого" моделювання
У нещодавньому епізоді подкасту "Search Off The Record" Зої Кліффорд з команди рендерингу Google пояснила, як Googlebot тепер імітує періоди простою, щоб викликати події JavaScript, зокрема requestIdleCallback
. Ця функція зазвичай використовується розробниками, щоб відкласти завантаження некритичного контенту, поки браузер не буде зайнятий. Раніше ефективність Googlebot у рендерингу сторінок означала, що він рідко досягав стану простою, що призводило до того, що певний вміст не завантажувався та не індексувався належним чином.
Кліффорд поділився прикладом популярного відео-сайту, який затримував завантаження свого контенту, поки не спрацьовував requestIdleCallback
. Однак, оскільки браузер ніколи не простоював по-справжньому, зворотний виклик не виконувався, що призводило до неповного завантаження сторінок.
Покращення процесу рендерингу
Щоб вирішити цю проблему, Googlebot тепер прикидається, що не працює, навіть під час активних завдань рендерингу. Ця зміна гарантує, що в режимі очікування спрацьовують зворотні виклики, що дозволяє завантажити та проіндексувати весь контент, включно з відкладеними елементами. Це налаштування особливо важливе для сайтів з високим вмістом JavaScript, де завантаження вмісту часто затримується для оптимізації продуктивності.
Рекомендації для веб-розробників
Кліффорд наголосив на важливості впровадження витонченої обробки помилок у JavaScript для запобігання таким проблемам, як порожні сторінки або відсутній вміст, що може негативно вплинути на індексацію. Розробникам рекомендується ефективно обробляти помилки, гарантуючи, що навіть якщо якийсь код вийде з ладу, сторінка все одно зможе правильно відобразити свій вміст.
Наслідки для SEO-професіоналів
Для SEO-фахівців цей розвиток подій підкреслює необхідність постійного моніторингу та тестування веб-сайтів для виявлення потенційних проблем з рендерингом. Співпраця з командами розробників має важливе значення для того, щоб веб-сайти були зручними для користувачів і оптимізованими для пошукових систем. Інформованість про те, як пошукові системи обробляють JavaScript і відображають сторінки, має вирішальне значення для підтримки і поліпшення пошукової видимості.
Висновок
Адаптація Google до роботи з веб-сайтами, що містять багато JavaScript, шляхом імітації станів простою є значним кроком вперед у технології сканування та індексації сайтів. Ця зміна не тільки підвищує точність індексації контенту, але й підкреслює динамічну природу SEO та практики веб-розробки.
Для отримання додаткової інформації про методи рендерингу Google і способи оптимізації під них, вивчіть відповідні дискусії та ресурси, наприклад, підхід Google до рендерингу всіх сторінок, включно з сайтами, що містять багато JavaScript. Ця інформація є безцінною для розробників і SEO-фахівців, які прагнуть оптимізувати продуктивність сайту та його видимість у пошукових системах.