Indexation Cap

Sharing is caring <3Share on FacebookShare on Google+Tweet about this on TwitterShare on LinkedIn

indexation-capBereits am 1. Dezember 2009 veröffentlichte Rand Fishkin einen Artikel über Google’s Indexation Cap. Hierbei geht es um die Frage, ob und wie Google die Anzahl der Seiten limitiert, die es von einem Webprojekt indexiert. Daher auch der Ausdruck „Indexation Cap“: macht Google beim Indexieren großer Websites irgendwann „einen Deckel drauf“?

Jeremy Bencken brachte Ende des Jahres Insiderinformationen auf, die bestätigen, dass es bei Google wirklich eine Begrenzung der indexierten Unterseiten eines Webprojektes gibt und erwies zusätzlich dem totgesagten PageRank seine Ehre.

Doch der Reihe nach:
wie Rand gewohnt klar und deutlich formuliert, macht ein Indexierungsdeckel Sinn: Junk und Spam (aber auch unbeabsichtigt produzierte Duplicate Content Seiten, Anm. d. Verf.) würden den Index zumüllen und die Relevanz der Treffer absenken. Daher sein Fazit:

Google (very likely) has a limit it places on the number of URLs it will keep in its main index and potentially return in the search results for domains.

Seine Erfahrungen der letzten drei Monate klingen wir ein SEO-Horrorszenario:
1. man wacht eines Morgens auf und hat 40% des SEO Traffics verloren
2. nach etwaigen Panikattacken schaut man sich die eigenen Rankings genauer an und stellt fest, dass sich die Platzierungen starker Keys nicht verschlechtert haben, der Longtail aber erheblich gekappt wurde

Nun stellt Rand Vermutungen an, woran das liegen könnte:
1. Trust und Backlinkstruktur: je vertrauenswürdiger ich bin, desto mehr darf ich in den Index blasen.
Das ist absolut selbsterklärend und logisch, auch weil man davon ausgehen kann, dass Amazon oder große, trusted Nachrichtenseiten es nunmal überhaupt nicht nötig haben, spammy Unterseiten zu erstellen. Doch natürlich gilt auch hier: niemand kann sich auf Dauer auf dem Trust-Kissen ausruhen. Das Vertrauen von Google ist wie zwischenmenschliches Vertrauen: einmal verletzt (z.B. eben durch unbeabsichtigte DC-Sites), muss es wieder behutsam aufgebaut werden.
Daher sollte man immer seine Seitenstruktur und sein URL-Design im Auge behalten und regelmäßig in den Google Webmaster Tools nach Nachrichten Ausschau halten (Google tritt einem gerne per Message auf die Füße, wenn es das Gefühl hat, man schwemmt den Index zu. Zum Glück! Der spontane Verlust von Longtail Traffic ist bedeutend schmerzlicher, daher sollte man sich immer über Google Nachrichten freuen und entsprechend umgehend darauf reagieren).

2. Die Seite wächst rasant, die Backlinks nicht.
Auch logisch: wenn ich z.B. tagesaktuelle News veröffentliche, die einen deutlichen Mehrwert bieten, dann erhalten diese Unterseiten entsprechend organische Backlinks. Wenn ich allerdings als Shopbetreiber eines Tages entscheide, dass meine T-Shirts besser gefunden werden, wenn jede Farb- und Größenkombination eine eigene Unterseite erhält, dann tue ich eben genau das, was Google nicht will:
– keinen Mehrwert bieten
– Duplicate Content produzieren
– den Index zublasen
– Google’s geliebtes Canonical Tag nicht oder falsch einsetzen

3. Die Anzahl der Deeplinks im Verhältnis zu Startseitenlinks.
Wenn User der Meinung sind, dass meine Seite auch auf unteren oder unterster Ebene wertvollen Content liefert, der verlinkt wird, dann macht es auch für Google Sinn, in diese Tiefe einzutauchen. Wenn nicht, dann nicht.

4. Googles gesunder Menschenverstand.
Hinzu kommen die klassischen Google-Bewertungskriterien wie Nutzerverhalten (ja, das ist klassisch :-)), Quality Rater Analysen und Spam Reports.

Was hat das nun mit dem PageRank zu tun?
Jeremy Bencken erhielt durch Zufall Einsicht in eine Mail, die das Problem der limitierten Indexierung deutlich aufzeigt. Aus dieser Mail wird klar: die Qualität des Contents ist ein entscheidendes Kriterium für eine vollständige Indexierung. Ebenso die Deeplinks. Nicht überraschend. Interessant ist hier, dass in der Mail eine Info steht, die von Google nicht öffentlich kommuniziert wird: Seiten, deren PageRank nicht ausreichend ist, können im supplementären Index landen (der supplementäre oder sekundäre Index beinhaltet Seiten, die nicht im Google Main Index landen und seltener gecrawlt werden. Sie verschwinden sozusagen von der Oberfläche.)

Sharing is caring <3Share on FacebookShare on Google+Tweet about this on TwitterShare on LinkedIn

Author: Astrid Kramer

9 Kommentare

  1. Super Artikel, danke für die Zusammenfassung.
    Eines spielt vielleicht auch eine Rolle: trusted outgoing links. Nach dem Motto: je mehr gute Vernetzung generiert wird, um so besser für den Crawler. Ist aber Spekulation meinerseits.
    Immer in die WMT zu schauen, ist auf jeden Fall richtig ;-)
    Gruß, Martin

  2. War das neu? Kann ich in jedem Fall nur bestätigen. Auch die Spekulation von Mißfeldt, dass thematisch passende Outgoings zu „guten“ ;-) Sites das Ansehen der Seite heben.
    Und da haben wir ihn wieder: Den PageRank… Gut und immer noch wichtig (wenn er natürlich entstanden ist).
    Sicher folgt jetzt gleich wieder von irgend jemand, der unter verbaler Inkontinenz leidet der Satz, dass der PR tot sei ;-)))

  3. Danke für den Beitrag. Klingt alles logisch. Gilt aber sicherlich nicht für Google Friendship Sites

  4. Super Thema & Bericht!
    Gerade bei sehr großen Corporate Seiten ist es wichtig, bereits vor der Optimierung (oder natürlich noch besser: Vor dem Launch / ReLaunch) darüber nachzudenken.
    Eine gute Struktur ist unerlässlich, sonst steht man irgendwann mal an!

  5. Danke für die interessante Zusammenfassung. Ein sehr relevantes Thema für mich, dass ich im Auge behalten werde.

  6. Überwiegt Trust (Spiegel) Content-Originale?

    Aggregiert der Spiegel Artikel von Blogs kurz nach oder schon bei Veröffentlichung (RSS), werden im Logtail dann seine „Kopien“ vor den eigentlichen Originalen geranked,

    weil die interne Verlinkung einfach mehr power auf den Content fließen lässt, als im kleinen Blog?

  7. Auch leider zum Scheitern verurteilt: Wenn junge Wikiprojekte jede kleinste Änderung zusätzlich twittern lassen.

  8. Toller Artikel!!!
    Gerade die Ausführen mit dem Trust und den Backlinks sind sehr gut nachvollziehbar… Schade finde ich persönlich allerdings, dass es nie Richtwerte gibt.
    Genauer gesagt gibt es nie Angaben wie: „Bei 30 qualitativ hochwertigen Backlinks werden X Seiten indexiert…“
    Für mich als Mathematiker und Logiker ist SEO nach wie vor viel zu viel Bauchgefühl – leider :(

Trackbacks/Pingbacks

  1. Google Indexierungsbegrenzung für Webseiten | E-Commerce Blogger - [...] it Gerade stolpere ich über das Thema “Indexation Cap” bzw. die Google Indexierungsbegrenzung für Webseiten im Blog…
  2. Links zum Freitag, 8.1.2010 | Werbeideen auf Marketing Guide - [...] Google indexiert nicht alle Unterseiten http://www.nerd-in-skirt.de/indexation-cap/ [...]
  3. Top Webmarketing Links der letzten Woche (KW02/2010) | WebmarketingBlog.at - [...] Indexation Cap (nerd-in-skirt.de) Wie limitiert Google die Anzahl der indexierten Seiten? [...]
  4. Nerd in Skirt – just in love with SEO and SMO» SEO » Die Psychosomatik der Suchmaschinenoptimierung - [...] SEOs sehr wohl wissen, dass das „Viel hilft viel“-Prinzip hier nicht zieht (siehe dazu: Indexation Cap), wissen die Entscheider…
  5. Nerd in Skirt – just in love with SEO » Blog Archive » Indexbereinigung: Google Hacking als SEO-Benefit - [...] Hier ist Google Hacking extrem nützlich. Elaborierte Google-Abfragen wollen, mit reinem Gewissen betrieben, primär auf Sicherheitslücken hinweisen und aufzeigen,…

Kommentar absenden

Deine E-Mail-Adresse wird nicht veröffentlicht. Erforderliche Felder sind markiert *