Technologie

Ein Schritt zu weit: Wie Google Website-Betreibern die Kontrolle über ihre Inhalte entzieht

geschrieben von Tobias Gillen

Wenn ein Unternehmen die Geschicke im Internet dominiert, dann ist das Google. Mit einer angekündigten Änderung zu einer schlankeren Darstellung von Websites, die mit einer schlechten Netzabdeckung angesteuert werden, geht der Konzern aber einen Schritt zu weit. // von Tobias Gillen

Google hat schon früh angefangen, Website-Betreiber in eine Abhängigkeit zu zerren. Mit der steigenden Marktmacht im Suchmaschinenmarkt galt für diese schon früh: Wer Google gefällt, bekommt Traffic. Vor einigen Jahren gab es Kennziffern wie den PageRank, der anzeigen sollte, wie gut eine Website in der Gunst des Konzerns steht. Inzwischen wird die Abhängigkeit durch große Algorithmus-Updates deutlich, nach denen sich Betreiber richten – und darüber teils sogar vergessen, für wen sie die Seiten eigentlich machen: den Leser oder Google?

Ein aktuelles Beispiel: Google sagt, es hätte gerne für mobile Geräte optimierte Websites. Wer dem folgt, wird weiterhin gut in den Suchergebnissen gelistet. Wer sich widersetzt, wird abgestraft und auf Smartphones und Tablets weiter hinten angezeigt. Die Konsequenz: Website-Betreiber kuschen – oder sie verlieren Traffic. Ein Mitspracherecht gibt es nicht, Einmischung ausgeschlossen.


Neue Stellenangebote

Growth Marketing Manager:in – Social Media
GOhiring GmbH in Home Office
Senior Social Media Manager:in im Corporate Strategy Office (w/d/m)
Haufe Group SE in Freiburg im Breisgau
Senior Communication Manager – Social Media (f/m/d)
E.ON Energy Markets GmbH in Essen

Alle Stellenanzeigen


Google verändert Websites nun selbst

Wer die Macht hat, bestimmt eben, wie es läuft. Im Februar 2015 liefen 67,63 Prozent der weltweiten Suchanfragen am Desktop über Google, von mobilen Geräten waren es 92,21 Prozent. Die Konkurrenz – Baidu, Yahoo, Bing, AOL und Ask – teilen sich den schmalen Rest auf. Nun geht Google noch einen Schritt weiter – und entzieht Website-Betreibern ganz direkt die Kontrolle über das, was ihre Leser angezeigt bekommen.

Eine aktuelle Ankündigung im Webmaster Central Blog von Google liest sich zunächst unspektakulär. Von „schnelleren mobilen Websites in Indonesien“ ist die Rede, von viermal schnellerer Ladezeit, von 80 Prozent weniger verbrauchten Daten, von 50 Prozent mehr Seitenaufrufen. Das soll erreicht werden, indem Google Websites – zunächst nur in Indonesien – schmaler und datenschonender anzeigt, wenn man mit einer schlechten Netzabdeckung surft.

Algorithmen entscheiden über „relevanten Inhalt“

Was in anderthalb Wochen in Indonesien als Testballon startet, ist für den Konsumenten sicher keine schlechte Sache: Er bekommt seine Informationen – und das auch bei schwachem Empfang oder schlechter Netzabdeckung. Doch ist es eine Ankündigung, die zumindest zum Nachdenken anregen sollte. Denn damit bestimmt Google, was „relevanter Inhalt“ ist.

In der Ankündigung liest sich das so: „So we’ve developed a way to optimize web pages to be faster and lighter, while preserving most of the relevant content.“ Es trägt jetzt nicht gerade zur Beruhigung bei, dass Google „das meiste“ des relevanten Inhalts anzeigen möchte. Und überhaupt: Wer entscheidet darüber, was relevant ist? Ein Algorithmus?

Google

Erinnerungen an das Bildersuche-Update

Das führt zum Kontrollverlust der Website-Betreiber. Was angezeigt wird, entscheidet Google. Und zwar dort, wo Google eigentlich keine Kontrolle darüber haben sollte. Es ist schon ein wenig selbstironisch, dass Google im August 2014 ankündigte, Website-Betreiber für eine sichere https-Variante einer Seite mit einem besseren Ranking zu belohnen. Der Sinn hinter diesen Verbindungen ist schließlich – ganz einfach ausgedrückt – zu verhindern, dass sich jemand zwischen Nutzer und Website schaltet. Und genau das macht Google nun, wenn auch etwas anders geartet.

Man kennt das von der Bildersuche. Gibt man einen Suchbegriff ein, etwa BASIC thinking, stößt man zuerst auf einige Logos und Screenshots. Klickt man eines der Bilder dann an, kommt man nicht etwa direkt auf BASICthinking.de, sondern auf eine Zwischenseite von Google. Am rechten Bildrand sieht man dann einen Link zur „Website mit dem Bild“, aber wer klickt sich schon weiter dorthin?

Google Bilder

Drastische Einbußen voraus?

Genauso gut kann man auf der Vorschauseite von Google lesen und sogar interagieren: Bei einem Klick auf einen Artikel öffnet sich nämlich nicht etwa die Originalquelle, sondern weiterhin die google.de-Seite. Bei Website-Betreibern führte das zu drastischen Einbußen im Traffic durch die Bildersuche.

Ähnlich der Bildersuche wird das auch beim Testlauf in Indonesien laufen. Betreiber können über die URL

icl.googleusercontent.com/?lite_url=http://eigenedomain

testen, wie ihre Seite dann künftig aussehen würde, bei BASIC thinking etwa so.

Am oberen Bildrand wird groß die Domain angezeigt, darunter ein Link zur Originalseite. Links im Header generiert Google selbst ein Menü aus so ziemlich allem, was es im oberen Drittel der Seite so findet. Ansonsten wird zwar der Inhalt halbwegs angezeigt, der Rest aber leider nicht – bei uns (siehe Bilder oben) und bei vielen anderen getesteten Seiten ist das ein ziemliches Chaos. Betroffen sind übrigens nicht nur nicht mobil-optimierte Seiten, sondern alle – es geht einzig um die Netzabdeckung.

Auf BASIC thinking-Anfrage widerspricht eine Google-Sprecherin. Es gehe nicht darum, den Website-Betreibern den Traffic zu nehmen und es werde auch keine zwischengeschaltete Seite geben. Auf Nachfragen, dass aber doch genau das so nachvollziehbar ist, bekommen wir keine Antwort. Auch nicht auf die Frage, was beunruhigender ist: Eine Zwischenseite, auf der Google Websites „optimiert“. Oder dass Google direkt auf den Seiten werkelt.

Monetarisierung mit Google-AdSense bleibt erhalten

Immerhin: An der Monetarisierung von Websites soll sich nur wenig ändern. Zumindest dann nicht, wenn man, jetzt wird es wieder absurd, seine Seite mit Google-Anzeigen vermarktet. Denn AdSense-Anzeigen sind nicht betroffen von der Schlankheitskur, die Google den Seiten verordnet. Andere Werbenetzwerke sollen folgen, so Google.

Statt Website-Betreibern die Möglichkeit zu geben, bei so einer Sache aktiv mitzuarbeiten, indem sie sich ganz bewusst dafür entscheiden, zwingt Google einfach alle dazu. Es gibt einzig eine Opt-out-Möglichkeit, wenn man

Cache-Control: no-transform

in seinem HTTP-Header ergänzt. Für technisch nicht so versierte Website-Betreiber schon eine ordentliche Herausforderung.

Das sieht die Google-Sprecherin anders. „Wir geben den Website-Betreibern die Kontrolle mit dem Opt-out zurück“, sagt sie. Und: „Wer eine Website hat, der ist auch technisch versiert.“ In Zeiten von simplen Baukasten-Systemen oder WordPress, Tumblr und Blogger ist die Aussage für mich wenig nachvollziehbar. Es war wohl noch nie so einfach für technisch nicht so versierte Menschen, eine Website zu starten wie heute.

Bye bye, Souveränität

Wenn Google, wie April 2015 geschehen, seine eigenen Seiten – etwa die Suchergebnisse – schlanker gestaltet, um sie bei schlechter Netzabdeckung schneller anzeigen zu können, ist das absolut in Ordnung. Wenn Google aber anfängt, die Kontrolle darüber zu übernehmen, was „relevanter Inhalt“ ist und was nicht, dann hört es auf mit dem Verständnis. Als Betreiber einer Seite möchte man selbst darüber entscheiden, was der Leser angezeigt bekommt und was nicht.

Im Zweifel würde ich eher auf einen Klick verzichten, als dass der Google-Algorithmus mir meine Souveränität abnimmt und meine Seite umgestaltet. Zumal nicht mal das so richtig zu funktionieren scheint, wie die Bilder oben belegen. Die Google-Sprecherin sieht das anders: Dass die Nutzer die Inhalte angezeigt bekommen, sei wichtiger, als wie sie angezeigt werden.

Zu viele offene Fragen

Beängstigend, wenn man diese Vorstellung mal weiterdenkt: Was, wenn jetzt plötzlich jeder Konzern anfängt, in der Darstellung von Websites herumzupfuschen? Wenn Twitter, Facebook und Co. auch mit scheinbar nutzerfreundlichen Motiven (Sprecherin: „Uns geht es darum, den Menschen ein positives Sucherlebnis zu bereiten.“) ihre eigenen Versionen von Websites gestalten?

Zunächst soll es sich nur um einen „Testballon“ in Indonesien handeln, wahrscheinlich werde der aber, so auf Nachfrage, in weitere Länder ausgeweitet, die mit schlechter Netzabdeckung kämpfen. Danach sei auch Europa möglich.

Dafür müssten aber noch einige offene Fragen geklärt werden.

Über den Autor

Tobias Gillen

Tobias Gillen ist Geschäftsführer der BASIC thinking GmbH und damit verantwortlich für BASIC thinking und BASIC thinking International. Seit 2017 leitet er zudem die Medienmarke FINANZENTDECKER.de. Erreichen kann man ihn immer per Social Media.

16 Kommentare

  • Ich finde es gut was Google versucht (aber schlecht in der Ausführung)

    Es geht hier nicht um den Westen sondern um Schwellenländer. Neben langsamen Internet gibt es hier noch ein anderes Problem – Geld. Wenn ich nur 2€ pro Monat für Internet zur Verfügung habe dann macht es schon Sinn die kleinst mögliche Seite zu bekommen.

    Die User sind nicht technisch versiert und haben keine Chance kleinere Seiten zu bekommen. Ich bin gerade in Afrika unterwegs und muss z.B. deshalb JEDEM einen alten Opera Browser installieren der noch auf die Opera OffRoad Komprimierung setzt (bis zu 90%) im Gegensatz zu 50% bei dem HTML5 tauglichen OperaTurbo.

  • Die Sache hat zwei Seiten:
    Die eine Seite des Webseitenbetreibers wurde hier anschaulich geschildert.
    Die andere Seite ist die, das es wirklich technisch unbedarfte Seitenbetreiber gibt, die 10 Megapixel Bilder in die Seite einbauen und nur klein skalieren, aber nicht klein rechnen. Die riesige Datenmenge bleibt.

    Und dann werden noch Audio und Video Dateien mit eingebunden, die beträchtlich den Traffic erhöhen.
    Die Geschichte mit den Retina Displays machte alles nur noch schlimmer, plötzlich sollten die Bilder mindestens doppelt so groß sein. Also Kantenlänge x 2 = 4 fache Größe der Datei.
    Bei Twitter kann man das schön beobachten, wenn sich quälend langsam ein eingebundenes (Retina-) Bild irgendeines bezahlten Tweets aufbaut.

    Dereinst baute ich selbst mal für einen Kunden Robots, um Informationen von Seiten heraus zu filtern und während normale Seiten in etwa eine Größe von 50 bis 200 kB hatten, fielen einige aus dem Rahmen mit über 1 MB, diejenigen, die mit bunten Bildern und kleinen Videos gepflastert waren.
    Um dem Traffic und Rechenspeicher-Bedarf klein zu halten, versucht man, nur relevanten Inhalt zu bekommen und das war in unserem Fall eben nur Text.

    Google macht im Prinzip vermutlich das Gleiche aber geht noch einen Schritt weiter und verkleinert die Bilder und schneidet Text ab oder lässt unwichtigen Inhalt weg.
    Wohl dem der dann einen semantischen HTML-Aufbau hat und so Tags wie und , , , , usw. richtig benützt.
    Das macht es Google leichter, die wichtigen Inhalte zu finden (ist auch für Onpage-SEO interessant).

    Nun kann man geteilter Meinung sein, was mehr ins Gewicht fällt:
    Dass Google eine Seite zurecht schneidet und selbst entscheidet, was es anzeigt.
    Oder dass die Seite erst gar nicht angezeigt wird, weil wegen des lahmen Aufbaus wieder abgebrochen wird.
    Man kann es als Hilfe oder als Strafe sehen.

    Trotzdem muss Google auf die Finger geschaut werden, denn Fakt bleibt, dass es uns beeinflusst, wie wir unsere Seiten aufbauen und was wir dort rein schreiben.
    Praktisch sind wir dann doch auch nur sogenannte „Quotenschlampen“.

  • Naja, immerhin hebelt Google damit nicht HTTPS-Verbindungen aus.
    So wie es aussieht können https-Seite „due to technical errors“ nicht transcodiert werden.

  • Nach dem selben Prinzip funktioniert ja auch schon die Darstellung von E-Mails in der Gmail App. Oft funktioniert es technisch recht gut, manchmal ist die Darstellung aber auch komplett daneben. Das Ergebnis möchte ich mir für ganze Webseiten eigentlich gar nicht vorstellen.

  • Solange z.B. nur Hintergrundbilder gefiltert würden wäre das ja unter gewissen Umständen noch halbwegs akzeptabel. Aber leider filtert Google auch die CSS-Dateien raus wodurch eigentlich sogar relevante Information verloren geht. Immerhin hat der Aufbau ja auch was mit Information zu tun. Sollte er zumindest.

    Von daher, so wie’s ist, absolutes NOGO.

    Besser ein OptIn einbauen als das OptOut, erspart mir das ich bei 100 Projekten nachbauen muss.

  • Der Arttikel hat wenig mit Basic thinking zu tun. Jeder hat das Mitspracherecht, Google nicht zu nutzen. Wenn es in der DACH-Region dennoch mehr als 90% tun, zeigt es, dass Google aus Nutzersicht mehr Wert bietet als andere.
    Dieses nutzerorientierte Denken vernachlässigen leider viele Anbieter, Web Sites, Shops, arrivierte Unternehmen, Medien usw. die es sich in ihrer Komfortzone so hübsch eingerichtet haben. Leben bedeutet Veränderung und schnelle Anpassungsfähigkeit. Es ist gut, dass es Beschleuniger und Innovatoren gibt, damit einige nicht einschlafen. Und z.Z. ist halt mobil-machen erforderlich. Wir brauchen Lösungen für die inzwischen mehrheitlich mobilen Internetzugriffe und etwas Druck, dies nicht zu ignorieren in unserer so schönen Wohlstands-Disney-Welt.

  • „Inzwischen wird die Abhängigkeit durch große Algorithmus-Updates deutlich, nach denen sich Betreiber richten – und darüber teils sogar vergessen, für wen sie die Seiten eigentlich machen: den Leser oder Google?“

    Das ist eine zynische Umkehrung der Kausalität. Andersherum wird ein Schuh draus: Die SEO-Branche hat sich und ihre Kunden in jahrelanger profitabler—und aus wirtschaftlicher Sicht sinnvoller—Arbeit so gebettet, und liegt nun auch so.

    Es muss sich niemand der Illusion hingeben, dass Betreiber ihre Inhalte und ihre Präsentation in erster Linie an Lesern orientieren. Die Suchmaschine ist der erste Kontaktpunkt für einen Riesenanteil an Traffic. Diesen Kontaktpunkt in den Fokus zu rücken, funktioniert! Suchmaschinenoptimierung ist daher ein florierendes Geschäft, das messbare, für Betreiber nicht zu ignorierende Ergebnisse erzielt. In mancher Ausprägung unsichtbar, manchmal aber auch zu Lasten der Contentqualität (z.B. Stichwortoptimierung).

    „Gaming the system“ ist ein Problem für die Qualität der Suchergebnisse, weil durch SEO eben nicht der beste Content nach oben geschwemmt wird, sondern der am besten auf Google optimierte nach oben schwimmt. Um die Qualität der Suchergebnisse zu verbessern, liegt es in Googles Interesse, SEO sozusagen „rauszurechnen“. Der Vorwurf, Google sorge für eine suchmaschinen- statt kundenorientierte Ausprägung von Content-Providern, ist in diesem Licht geradezu perfide.

  • Es fühlt sich scheinbar an, wie Abhängigkeit vom Algorithmus, ist es aber nicht! Das freie Hilfsmittel Google muss sich dauernd anpassend weiterentwickeln, um der schier endlos wachsenden Schar von Platzierungsjägern aka SEO usw. zu entkommen, sich gegen andere „Suchmaschinen“ oder Netzwerke wie Pinterest, YouTube usw. zu behaupten und (gleichzeitig) den Nutzern noch (s)einen Mehrwert bieten.
    Vorausdenker wie Brian Solis propagieren inzwischen sogar schon „mobile only!“, siehe
    http://t3n.de/magazin/brian-solis-zukunft-des-marketings-238228/
    Also weg mit dem Platzhirsch- Denken, nicht lange lamentieren, sondern sich an die Nase fassen und fragen, warum man nicht selbst schon viel mehr in die Richtung getan hat, die erkennbar obsiegen wird!
    Mit dem Thema mobile werden (nicht nur) im WWW die Karten völlig neu gemischt.

  • Wenn ich auf meiner Domain fremde Inhalte mehr als Auszugs/zitatweise anzeige, klingt das für mich nach einem astreinen copyrightverstoss… Bin ich auf dem Holzweg?

  • Es ist leicht, über Google zu meckern. Aber solange die mehr richtig als falsch machen, kommt man mit meckern nicht weit.
    Wenn man heutzutage auf ein deutsches Nachrichtenmagazin klickt, baut sich zuerst mal das Coverbild auf, dann 5-6 „das könnte sie auch interessieren“ gefolgt von Werbebannern. Und erst gefühlte 3 Stunden später kommt endlich der erwartete Text.
    Wenn jetzt Google sagt „weg mit dem ganzen Müll, wenn du den Text willst, bekommst du den Text,“ dürften nur wenige ein Problem damit haben.
    Viele Seiten drängen einem auch eine unübersichtliche Sparversion ihrer Seite auf, wenn man mit Smartphone oder Tablet drauf zugreift. Manuell umschalten? Geht – aber dann lädt wieder alles neu; zuerst natürlich die Werbebanner und der „das könnte sie auch interessieren“-Müll, bevor man den gewünschten Text hat. Oder man landet wieder auf der Startseite und darf sich erneut bis zu dem Text, den man lesen wollte, durch klicken.

    Google ist nicht so groß und übermächtig geworden, weil sie alles falsch gemacht haben. Der Laden ist auch nicht plötzlich aufgeploppt und alle Wettbewerber hatten von gestern auf heute keinen Marktanteil mehr.
    Also: was hat Google richtig gemacht und was machen die anderen falsch?
    Fangt mal an, darüber zu meckern als darüber, dass Google den Usern gibt, was sie wollen und damit noch mächtiger wird.
    Gerade heutzutage ist das „Markendenken“ kaum noch vorhanden. Wenn man etwas Besseres findet, wechselt man. Aber was ist zur zeit besser als der Datenkrakengigant Google?

  • Hmm mir hat die BT-Lite-Version alles relevante im Artikel angezeigt. Surfe aber auch weniger auf Webseiten sondern gehe per Links auf Artikel. Wenn man nur Artikel lesen möchte ist es eine gute Sache…

    würde ich mir in meinen mobilen Internet – Schwellenland namens Taunus auch wünschen.

    lg
    O2/O2+ geplagter Edge-User

  • Ich habe den obengenannten Link erst einmal unter pragmatischen Gesichtspunkten ausprobiert. Ich bekomme schon seit Jahren keine mich befriedigende Lösung via CSS für mobile Endgeräte für meine WordPressinstallationen hin. Die Plugins von WP zu dem Thema finde ich auch nicht toll.

    Die Hoffnung lautet, dass Google mir die Arbeit abnimmt. Tut Google aber nicht. Das Ergebnis ist ziemlich unbefriedigend. Meine Menüs werden an das Ende der Ausgabe gepackt oder verschwinden gänzlich.

    Wenn ich jetzt eine selbstgestrickte Webseite hätte, würde ich sagen, logisch. Aber WordPressmenüs bzw. Installationen sind ja erkennbar. Also sollte Google eigentlich in der Lage sein, eine nutzerfreundliche Seitenkomprimierung für weitverbreitete CMS auf die Beine zu stellen.

    Wenn Standardkonfigurationen kaputt in der Navigierbarkeit kaputt gemacht werden, dann sollte man den Leuten so etwas nicht aufdrängen.

    Neugierig geworden habe ich mal einige Googleseite und große Webseiten ausprobiert. Google meldet „This page could not be transcoded due to technical issues.“ Google macht anscheinend selbst Seiten, die ihren eigenen Kriterien widersprechen, verlangt aber von anderen sich an diese Kriterien zu halten. Und damit wird die ganze Sache für mich sehr abstrus und mein Unbehagen gegenüber von Google nimmt zu.

  • Hallo BT-Team,
    hatte mich in dem letzten Jahr ein paar mal gemeldet, immer mit Kritik für, entschuldigt den Ausdruck, dämliche Posts.
    Aber jetzt melde ich mich, um euch zu sagen:
    Eure wenigen Posts nach eurem Relaunch und Verkauf sind besser, als alle in den zwei Jahren zuvor.
    Weiter so… dann bekommt ihr gerade noch mal so die Kurve. Denn auch ich hätte mich sehr zeitnah auf allen Kanälen von euch getrennt…

  • Ich weiß nicht, ob es hier hingehört.

    Ich habe via htaccess google verboten meine Bilder zu verwenden. Wenn ich jetzt meine Webseite auf dem Telephon mit Chrome aufrufe, werden keine Bilder von meiner Webseite übertragen. Mein erster Verdacht war, das könne an der hier besprochenen Komprimierung liegen. Also habe ich die Komprimierung abgeschaltet. Die Bilder werden weiterhin nicht übertragen.

    Ich kann mir das nur so erklären, sobald ich den mobilen Chromebrowser verwende, scheint das grundsätzlich über google zu laufen und es wird anscheinend auch so gefiltert.

  • Nicht alle wissen, wie man eine Webseite gut präsentiert damit Google sie auf eine gute Weise zeigt. Für diejenigen sage ich, ja, das ein Algorithmus einige Sachten nach vorne zieht ist okay. Die menschliche Faktor ist jedoch zu wichtig, um ganz von einem Roboter übernommen zu werden. So wie’s aussieht, ist das die Zukunft…