Was ist Indexierbarkeit?
Indexierbarkeit ist die Fähigkeit einer Webseite, von Suchmaschinen indiziert zu werden. Nur indizierbare Seiten können in den Suchergebnissen auftauchen.
Um eine Webseite zu indizieren, müssen Suchmaschinen, wie z. B. Google, diese indizieren:
- Entdecken Sie die URL der Seite
- Crawlen (Herunterladen des Inhalts)
- Verarbeitung (Verstehen und Extrahieren von Schlüsselinformationen aus gecrawlten Seiten)
Nur dann kann die Seite in den Suchergebnissen erscheinen.
Wenn Webcrawler ihre Aufgabe nicht erfüllen und eine Seite auf Ihrer Website nicht crawlen können, kann diese Seite nicht angemessen indiziert werden. Und ohne Indizierung kann die Seite Ihrer Website keinen Suchverkehr einbringen, weil sie für Suchmaschinen unsichtbar bleibt.
Warum ist Indexierbarkeit wichtig?
Die Indexierung ermöglicht es den Suchmaschinen, die Seiten Ihrer Website in den SERPs anzuzeigen. Ohne Indizierung können Sie keinen organischen Suchverkehr auf Ihre Website lenken.
Manchmal ist es sinnvoller, bestimmte Seiten nicht indizierbar zu machen. Nicht-indizierbare Seiten werden zum Beispiel bevorzugt, wenn es sich um Landing Pages, Seiten mit geringer Qualität oder "Danke für die Anmeldung"-Seiten handelt. Schließlich wollen Sie nicht, dass diese Seiten in den Suchergebnissen auftauchen.
Vorausgesetzt, Sie wollen, dass die URLs ranken, sollten Sie jedoch sicherstellen, dass diese Seiten sowohl crawlbar als auch indexierbar sind.
Was macht eine Seite indizierbar?
Um als "indizierbar" eingestuft zu werden, muss die Seite die folgenden Kriterien erfüllen:
1. Die Seite muss crawlbar sein
Damit eine Webseite indiziert werden kann, müssen die Crawler der Suchmaschine zuerst auf den Inhalt zugreifen und ihn crawlen können. Eine Sache, die sich direkt auf die "Crawlability" einer Webseite auswirkt, ist die robots.txt-Datei.
Eine robots.txt-Datei ist eine kleine Datei, die sich im Stammverzeichnis Ihrer Website befindet. Ihre Aufgabe ist es, den Web-Crawlern Anweisungen zu geben und ihnen mitzuteilen, welche Seiten Ihrer Website nicht gecrawlt werden dürfen. Andernfalls werden die Bots jede Seite crawlen, die sie auf der Website finden können; sie tun dies standardmäßig.
Es gibt Fälle, in denen es sinnvoll ist, solche "Einschränkungen" vorzunehmen. Dennoch ist es wichtig, sicherzustellen, dass Sie nicht unwissentlich die Seiten blockieren, die Sie indiziert haben möchten.
2. Die Seite darf keinen "Noindex"-Tag haben
Ein "noindex"-Tag ist eine On-Page-Direktive, mit der die Suchmaschine angewiesen wird, eine bestimmte Seite nicht zu indizieren. Im Grunde verhindert es, dass eine Seite in den SERPs erscheint.
Manchmal ist es ratsam, bestimmte Seiten - wie Landing Pages, Login-Seiten, dünne oder minderwertige Seiten oder "Danke"-Seiten - nicht zu indizieren und sie "privat" zu halten.
Wenn Sie diese Richtlinie jedoch missbrauchen oder z. B. vergessen, sie von der Seite zu entfernen, die indiziert werden soll, werden Sie organischen Suchverkehr verlieren.
Sie können Ihre Website mit dem Site-Audit-Tool von Ranktracker crawlen, um sicherzustellen, dass keine der Seiten, die indiziert werden sollen, ein "noindex"-Tag haben.
3. Die Seite muss kanonisch sein
Ein kanonisches Tag (rel="canonical") in einem Seitencode definiert die Hauptversion für doppelte, fast doppelte und ähnliche Seiten. Dies bedeutet, dass nur kanonische Seiten indiziert werden können, während ihre nicht-kanonischen Versionen ausgeschlossen werden.
Wenn Sie einer Seite kein kanonisches Tag hinzufügen, verlässt sich Google auf Signale wie interne und externe Backlinks, die XML-Sitemap und Weiterleitungen, um zu entscheiden, welche URL diesen Cluster in seinem Index "repräsentiert".
Das heißt, wenn Sie möchten, dass Ihre Seite in den Suchergebnissen erscheint, darf sie keine andere Seite als ihre kanonische Version deklarieren. Eine gute SEO-Praxis ist es, selbstreferenzierende kanonische Tags für indizierbare Seiten zu haben.
Wie Sie Google helfen, Ihre Seite zu indizieren
Hier erfahren Sie, wie Sie Google helfen können, die Seiten Ihrer Website zu indizieren:
1. Einreichen von Sitemaps bei Google
Eine Sitemap ist im Wesentlichen eine Liste (normalerweise im XML-Format), die alle Seiten Ihrer Website enthält.
Die Aufgabe der Sitemap besteht darin, Google die Seiten mitzuteilen, die auf Ihrer Website indiziert werden sollen.
Bevor Sie eine Sitemap einreichen, überprüfen Sie, ob sie den aktuellen Stand Ihrer Website widerspiegelt, und beheben Sie etwaige Fehler, wie z. B. defekte Links, verwaiste Seiten und Ähnliches.
Sie können Ihre Sitemaps über die Google Search Console an Google übermitteln.
2. Einzelne Seiten über das URL-Inspektionstool einreichen
Wenn Sie die Indizierung oder Neuindizierung nur einiger einzelner URLs beantragen möchten, können Sie das URL-Inspektionstool in der Google Search Console verwenden.
Das Tool zur URL-Überprüfung ist ein Diagnosetool in der Google Search Console, das Ihnen Einblick in die von Google indizierte Version Ihrer Webseite bietet und Ihnen unter anderem ermöglicht, die URLs live zu testen und die gerenderte Version der Seite anzuzeigen.
Außerdem können Sie einzelne Seiten bei Google anmelden.
Wenn Sie die Indizierung einer neuen URL - oder das erneute Crawlen und die erneute Indizierung aktualisierter URLs - beantragen möchten, können Sie dies Google mitteilen, indem Sie die Schaltfläche "Indizierung anfordern" auswählen. Wenn Ihre Live-URL keine Fehler enthält, wird Google Ihre Seite in die Crawl-Warteschlange aufnehmen.
Beachten Sie jedoch, dass die Anzahl der URLs, die Sie pro Tag zur Indizierung anfordern können, begrenzt ist.
3. Interne Links für bessere/schnellere Auffindbarkeit bereitstellen
Eine weitere Möglichkeit, das Crawling zu fördern und damit die Indexierung der Website zu beschleunigen, ist die interne Verlinkung.
Beim Durchsuchen des Internets folgen die Crawler von Google einem Pfad, der durch Links gebildet wird. Wenn also eine Seite Ihrer Website auf eine andere verlinkt, folgen diese Crawler dem bestehenden Pfad - und entdecken neue Inhalte.
Seiten ohne interne Links werden als "verwaiste Seiten" bezeichnet.
Deshalb ist es wichtig, dass Sie für interne Links zu und von Ihren wichtigsten Seiten sorgen. Zugegeben, das geschieht in der Regel ganz natürlich, wenn Sie eine gut organisierte Website erstellen.
Es kann jedoch nicht schaden, zu überprüfen, ob es auf Ihrer Website verwaiste Seiten gibt, d. h. Seiten, auf die keine internen Links verweisen. Dies können Sie mit dem Site Audit Tool von Ranktracker tun.
In diesem Zusammenhang sollten Sie sicherstellen, dass diese internen Links, die auf indizierbare Seiten verweisen, kein "nofollow"-Tag haben, da Google nofollow-Links nicht crawlen wird.
FAQs
Welche Rolle spielt die Datei Robots.txt für die Indexierbarkeit?
Die robots.txt-Datei enthält Anweisungen für Web-Crawler, welche Seiten oder Abschnitte Ihrer Website nicht gecrawlt werden sollen, was sich auf die Crawlability und damit auf die Indexierbarkeit Ihrer Seiten auswirkt.
Wie kann ich überprüfen, ob meine Seiten indiziert sind?
Sie können überprüfen, ob Ihre Seiten indiziert sind, indem Sie die Google Search Console verwenden. Das Tool bietet Einblicke in den Indizierungsstatus Ihrer URLs.
Welchen Einfluss haben verwaiste Seiten auf die Indexierbarkeit?
Verwaiste Seiten, die keine internen Links haben, die auf sie verweisen, werden von den Suchmaschinen weniger wahrscheinlich entdeckt und indiziert. Wenn Sie sicherstellen, dass alle wichtigen Seiten auf Ihrer Website gut verlinkt sind, verbessert sich ihre Indexierbarkeit.
Indem Sie sicherstellen, dass Ihre Seiten crawlbar, frei von "noindex"-Tags und ordnungsgemäß kanonisiert sind, können Sie ihre Chancen verbessern, indiziert zu werden und in den Suchmaschinenergebnissen zu erscheinen. Regelmäßige Audits und strategische interne Verlinkung können dieses Ziel weiter unterstützen.