PageRank optimal steuern mit Bot Herding

Mit Bot Herding ist es möglich den PageRank Fluss optimal zu steuern: mittels robots.txt und Metatag "follow". Wir haben es getestet und sind begeistert. "By implementing the above techniques, you can achive the maximum possible control over the PageRank flow within your web site." John Britsios (SEO Expert).

Hier beschreiben wir die relativ simple Vorgehensweise am Beispiel unserers Shopbetreiber Service Onlineshops. Am eindrucksvollsten sieht man die Ergebnisse an unserer ersten Service Rubrik "Webhosting". Die Arbeitsweise gliedert sich in drei Stufen, die jeweils einige Zeit aktiv sind. Ist man erstmal durch fließt der Pagerank optimal und jede einzelne Produktseite bekommt richtig viel Power. Und so geht es …

Stufe 1: Alle Ordner und Produkte der Shop-Rubrik "Dienstleistung" aussperren

Anfänglich regelt die folgende robots.txt, dass keine einzige Seite im Google Index landet. Die Onlineshop-Kategorie Dienstleistung und alle darin enthaltenen Artikel, die auf *.html enden, werden nicht indexiert.

# wallaby.de/service/
Disallow: /service/dienstleistung/
noindex: /service/*.html

Stufe 2: Alle Ordner der Shop-Kategorie "Dienstleistung" erlauben und alle Produkte der Shop-Kategorie "Dienstleistung" aussperren

Einige Wochen später bzw. wenn die Shopartikel alle korrekt erfasst sind, dann gibt man zunächst die Shop-Kategorien frei und verhindert gleichzeitig die Seitenindexierung einzelner Produktseiten. Das führt dazu, dass Google die ganze Power auf die Online-Shop-Kategorien verteilt. Das $ kennzeichnet, dass Kategorien immer mit einem Backslash enden. Aufgrund des Metatags "follow", welcher im Header auf den Kategorieseiten hinterlegt ist, fließt PageRank jedoch bereits auf die einzelnen Produktseiten. Vorausgesetzt natürlich, es gibt nirgendwo ein nofollow-Attribut bzw. ein nofollow-Metatag.

# wallaby.de/service/
Allow: /service/dienstleistung/*/$
noindex: /service/*.html

Stufe 3: Alle Ordner und Produkte der Shop-Rubrik "Dienstleistung" erlauben (noindex hat keinen Effekt)

Wieder einige Wochen später gibt man alles frei, also Online-Shop-Kategorien und Online-Shop-Artikel. Jetzt bekommt man den durchschlagenden Erfolg auf den Artikelseiten. Einige Artikel besitzen einen guten PageRank, teilweise den gleichen PageRank (PR3), wie die Startseite.

# wallaby.de/service/
Allow: /service/dienstleistung/
noindex: /service/*.html

 

Testergebnisse

Google Webmaster-Tools > Website-Konfiguration > Crawler-Zugriff

Stufe 2:

../dienstleistung/ Zulässig wegen: Allow: /service/dienstleistung/
../dienstleistung/installation/ Zulässig wegen: Allow: /service/dienstleistung/
../dienstleistung/installation/software-installation-online-shop-system.html Blockiert wegen:noindex: /service/*.html

Stufe 3:

../webhosting/ Zulässig wegen: Allow: /service/webhosting/
../webhosting/hosting/ Zulässig wegen: Allow: /service/webhosting/
../webhosting/hosting/shop-hosting-magento.html Zulässig wegen: Allow: /service/webhosting/


6 Comments for “PageRank optimal steuern mit Bot Herding”

says:

Dirk Otten, sagt nun mal folgendes ;-) Ich habe gerade bei Webseiten die eine Seitenanzahl höher 10.000 aufweisen sehr gute Ergebnisse damit erziehlt. Die einzelnen Keywords der Produktseiten werden anschließend wesentlich schneller und hochwertiger indiziert.

says:

Ich denke nicht das diese Methode viel Erfolg verspricht. Denn man sollte Artiekl so oder so erst Online stellen wenn diese fertig sind, genau das gleiche mit Kategorien. Wenn man Systematisch vorgeht kann man sich diese Schritte per robots.txt  sparen. Oder gibt es hier Leute bei denen es mehr gebracht hat??

says:

Google hat die Angewohnheit so viele Seiten wie möglich zu indexieren. Sind einige Seiten gesperrt konzentriert sich die Suchmaschine auf die restlichen frei verfügbaren Seiten, die dann irgendwann auch PageRank abbekommen. Hat eine Kategorie einen PR4 oder PR3, dann bekommt das Produkt sobald es nach ein paar Wochen frei geschalten wird den PageRank (abzüglich 1) weitervererbt, da der PageRank wieder fließen kann. Dieser Vorgang hat jetzt nichts mit Traffic zu tun, sondern es geht lediglich darum den PageRank sinnvoll weiterzugeben. Hat eine Kategorie erst mal einen PageRank, dann bleibt das natürlich auch.

says:

Ich kenne den Sinn von der robots.txt Datei. Aber was für einen Sinn soll es haben bestimmte Seiten erst auszusperren und später wieder freizugeben?
Wie Sie geschrieben haben, haben dadurch einige Seiten einen PR3 erhalten, ist der auch erhalten geblieben bei dem nächsten PR Update?