Sonstiges

wenn Google einen nicht mehr mag

hatte vor einiger Zeit über den Einbruch des Google-Traffics beim Living in World of Warcraft Blog berichte (Link zum WoW-Blog)t. Google hat uns anscheinend in die Sandbox geschmissen, was zu einem vehementen Trafficeinbruch führte. Man konnte uns per Google-Suche so gut wie nicht mehr finden. Jan hatte einige Vermutungen angestellt (Hauptannahme: Double Content) und mit Hilfe seiner Tipps habe ich folgende Maßnahmen vor ca. einer Woche ergriffen:

1. in der robots.txt dem Spider den Zugriff auf das Forum verweigert. Das Forum dient uns als Nebenanlaufstelle (intern für die Autoren und Vorschläge/Tipps seitens Lesern). Eine Besonderheit des Forums hat dazu geführt, daß Google tausende von Sites gespidert hatte: Man kann die Beiträge nach verschiedenen Kriterien anzeigen und das hat dann der Spider auch fleissig getan. Zu jedem Forenbeitrag gab es mehrere Links.
2. die Webseite war per URL sowohl über „www….“ als auch ohne „www“ erreichbar. Das hat ebenfalls dazu geführt, daß Google zwei verschiedene Links zu einigen Beiträgen erspidert hatte. Über diesen Eintrag in der .htaccess biege ich alle Aufrufe ohne „www“ so um, daß alle URLs für Living in WoW Beiträge mit einem „www“ vorangestellt werden:
RewriteCond %{HTTP_HOST} !^www.gamersliving.com [NC] RewriteRule (.*) http://www.gamersliving.com/wowblog/$1 [R=301,L]

Ich weiss nicht, ob es damit zu tun hat, aber seit gestern stieg die Google-Quote von ca. 20% auf über 40%. Vormals betrug die Google-Quote ca. 70%. Google-Quote? Ja, der Anteil der Besucher, die über Google reinkommen.

Google-Quote mit einem tiefen Tal:
Google-Quote


Trafficentwicklung
korreliert natürlich stark mit Google:
Traffic

und das ganze per Statcounter.com Auswertung für März 06:
WoW Traffic März 06

Auch heute hält die Tendenz an, die Suchanfragen sind immens zu den Vortagen hochgegangen und erreichen alte Zeiten:
Datum Impressions Visits Searches Internals Bots
2006/3/30 4104 2599 1967 901 1
2006/3/29 3308 1525 581 1263 3
2006/3/28 1863 785 208 793 1
2006/3/27 1769 753 203 741 3
2006/3/26 777 465 172 233 4
2006/3/25 715 446 159 196 4
2006/3/24 1037 590 139 351 6
2006/3/23 1376 662 169 531 6
2006/3/22 1613 763 178 663 1
2006/3/21 2291 941 192 1063 1
2006/3/20 1770 835 180 694 6
2006/3/19 958 526 155 290 4
2006/3/18 1143 621 172 358 4
2006/3/17 1598 852 182 533 5
2006/3/16 1498 825 176 504 8
2006/3/15 1678 795 202 648 4
2006/3/14 1390 690 172 590 0
2006/3/13 1496 784 200 546 4
2006/3/12 990 592 209 264 0
2006/3/11 996 611 213 230 0
2006/3/10 1563 803 199 590 3
2006/3/9 1649 830 192 550 3
2006/3/8 2267 1019 352 906 3
2006/3/7 4209 2127 1309 1361 3
2006/3/6 3469 1971 1316 993 0
2006/3/5 2817 1867 1401 496 2
2006/3/4 2242 1477 1038 418 0
2006/3/3 2649 1599 1071 702 1

Ob wir nun wirklich aus der Sandbox draussen sind, ob Google in der Tat Double Content entdeckt hatte, ich weiss es nicht. Kann sein, daß es nur temporäre Ausschläge sind.

Jobs in der IT-Branche


Über den Autor

Robert Basic

Robert Basic ist Namensgeber und Gründer von BASIC thinking und hat die Seite 2009 abgegeben. Von 2004 bis 2009 hat er über 12.000 Artikel hier veröffentlicht.

13 Kommentare

  • Über diesen Eintrag in der .htaccess biege ich alle Aufrufe ohne „€œwww“€? so um, daß alle URLs für Living in WoW Beiträge mit einem „€œwww“€? vorangestellt werden

    Verkehrtrum. Warum ersparst du deinen Besuchern nicht das überflüssige http://www.? no-www.org

  • Google schiebt seit letzter Nacht mal wieder fleißig hin und her. Bei neuen Blogs ist es derzeit ja so, dass man mit diesen spielend Top Positionen erreicht, durch einen extrem starken Newbiebonus. Dieser Bonus kann Monate aber auch nur Wochen anhalten. dann schmieren die Blogs ursprünglich ab, sind also kuam noch auffindbar über Google.

    Dann – ich vermute je nach Schreibfrequenz – tauchen sie früher oder später wieder (fast oder besser) auf alten Positionen auf und bleiben dann stabil.

    Es scheint so als ob Google sie eine zeitlang gut listet umd die Qualität des Traffics festzustellen, dann nach hinten wirft um zu sehen ob der Blogger für Google oder für seine Besucher schreibt.

    Habe dazu auch mal hier einen beitrag geschrieben

  • Haltet mich da mal auf dem Laufenden. Bei mir ist der Anteil der Google User von 400 – 600 täglich auf 10 am Tag abgeschmirt. Habe auch mal gecheckt woaran es liegen kann und muss auch dringend was machen…

  • Alles gute Massnahmen. Voraussichtlich auch der Hauptgrund für die sich abzeichnende Rekonvaleszenz.

    Zusätzlich/im Zusammenspiel: Bei Google gab’s in dieser Zeit einen glitch, der auf vielen Web sites gut gelistete pages in den supplemental index verschoben hat. Das wurde korrigiert, aber bedingt durch die interne Infrastuktur (search index und supplemental index sind getrennte Systeme mit separatem crawling, die erst in der query engine zusammen befragt werden), ist ein recrawl für den Standardindex erforderlich gewesen. In dem Maße wie der voranschreitet, verbessert sich der Google traffic der betroffenen Seiten auch wieder.

    Best of luck!

  • > Verkehrtrum. Warum ersparst du deinen
    > Besuchern nicht das überflüssige http://www.?

    Ich habe Robert die Version mit www. empfohlen da gamersliving.com seit jeher mit dieser Version im Google-Index war. Da es hier hauptsächlich darum ging den Traffic wiederzubekommen, wäre ein Wechsel auf die Version ohne www. kontraproduktiv gewesen da Google sich alle Seite neu hätte holen müssen.

    Ich würde übrigens eher „Duplicate Content“ sagen. Ist besseres Englisch, „Double Content“ hat sich daraus entwickelt, dass einige Leute mit der Abkürzung DC nichts anfangen konnten 🙂

    Um auch für alle anderen verständlicher zu machen warum gerade das Forum ein Problem war:

    Lange Zeit war nur das Blog bei Google gelistet. Viele Seiten, guter Content, nette Links. Auf einmal kam dann aber das Forum dazu und wurde dann natürlich auch vom Googlebot besucht. Danach sah das dann eher so aus:

    – 58135 Seiten insgesamt
    – 3000 Blogeinträge, Feeds, Trackback
    – 200 Category
    – 400 Tags
    – Rest (54400 Seiten!) vom Forum

    Der prozentuale Anteil von qualitativ hochwertigen Seiten (Posts) hat durch das Forum also extrem abgenommen. Für Google könnte das ganze aussehen, wie wenn auf eine hochwertige Seite auf einmal Spam gesetzt wurde (viele viele Seiten mit selbem Inhalt etc) um die „Autorität“ der Seite auszunutzen.

    Da das Forum aber sowieso eher eine interne Geschichte ist, und der Aufwand das Forum „sauber“ zu bekommen nicht unerheblich wäre, haben wir beschlossen einfach die Forenseiten bei Google auszuschließen und auf Besserung zu hoffenwarten.

    > Haltet mich da mal auf dem Laufenden.

    Michael, Melde dich einfach mal per Mail, da kann man vielleicht auch in 10 min helfen.

    > Robert, ruf mich mal an. Ich habe da noch ne
    > Idee zu der Geschichte.

    Gerald, kannst es mir ruhig auch erzählen 😉

  • Google hat bei mir geputzt!

    Ich hab festgestellt, dass Google wohl per 28. März das falsche und doppelte Listing meiner Seiten bereinigt hat. Vorher fanden viele Besucher mit Keywords für einzelne Post-Pages (verfasst in den letzten Monaten, also schon lange nicht mehr auf der Startseite) die URLS der Startseite. Seit Dienstag ist alles anders. Kein einziger Treffer mehr für die Hauptseite sondern nur noch für Archive- und Post-Pages. Ist ja auch richig, wenn der Surfer dorthin gelangt, wo sich das Gesuchte befindet und nicht dorthin, wo es sich mal vor langer Zeit befand. Nur, mein Traffic leidet schwer darunter. 🙁

  • Btw.:
    „Ob wir nun wirklich aus der Sandbox draussen sind, ob Google in der Tat Double Content entdeckt hatte, ich weiss es nicht. Kann sein, daß es nur temporäre Ausschläge sind.“

    Ich würde mal behaupten, dass der Kurs aus der Seitwärtsbewegung noch oben ausgebrochen ist und ein klares Kaufsignal gesetzt hat! Kann aber auch eine Falle sein! 😉

  • > Über diesen Eintrag in der .htaccess biege ich
    > alle Aufrufe ohne „€œwww“€? so um, daß alle URLs für
    > Living in WoW Beiträge mit einem „€œwww“€?
    > vorangestellt werden:
    Hmm … das ist nicht wirklich der Fall. Ich habs ausgetestet. Haste das wieder ausgebaut? Wenn ja warum? Deine Argumente klangen ja plausibel.

  • Updates haben diese Einstellung zerfleddert. habe sie seitdem auch nicht mehr reingezogen, weil ich mich entsinne, dass in Google Sitemap sowas eingebaut wurde mittlerweile, ob Google mit oder ohne www die URL bewerten soll. Hab das dann dort gemacht, ist aber schon länger her und da es mir nicht so wichtig ist, kümmere ich mich auch nicht mehr drum, ob das nun Auswirkungen hat oder nicht