Sonstiges

Vertrauen in Suchergebnisse sinkt

interessante Unterschungsergebnisse, auf die Techcrunch verweist: Search Atheism On The Rise

The survey found that only 51% of people trust information provided by search engines, down from 62% in 2006. Google, as the most popular search engine in the United States, isn’t trusted by nearly half (49%) of the people who use it, an interesting result.

Woran wird das liegen? Gerade das unterdurchschnittliche Ergebnis für Google erstaunt. Gerade weil dieser Suchanbieter als creme de la creme gilt, erstaunt das umso mehr. Ist das nun der zunehmenden Größe und damit einhergehend dem wachsenden Unwohlsein seitens der User geschuldet? Den langjährigen Erfahrungen, dass die Ergebnisse bei Weitem nicht so toll sind, wie es das Branding vermittelt?

Über den Autor

Robert Basic

Robert Basic ist Namensgeber und Gründer von BASIC thinking und hat die Seite 2009 abgegeben. Von 2004 bis 2009 hat er über 12.000 Artikel hier veröffentlicht.

17 Kommentare

  • Es wird wohl einfach daran liegen, dass bei vielen Suchbegriffen erst mal ein Haufen Seiten angezeigt werden, die wenig bis gar nichts mit der Suche zu tun haben.

  • Wie oft werden nach einer Suche seitenlang irgendwelche Preisvergleiche und andere inhaltslose Ergebnisse angeboten – Google ist einfach schlechter geworden…

  • Tja, so ist das halt, wenn SEOler die Suchergebnisse mit ihrem Müll zuspammen. Der User sieht einfach nur, dass die Ergebnisse nicht seine Erwartungen erfüllen und verlieren somit das „Vertrauen“.

  • Deckt sich mit meinen persoenlichen Erfahrungen. Ich sage das als Blogger ungern, aber das liegt leider auch in grossem Masse an der Uebergewichtung von (den falschen) Blogs.

    Bei Google sollten jetzt die Alarmglocken klingeln!

  • Wenn das Misstrauen der Nutzer mit der Qualität der Suchergebnisse zusammen hängt, wie ist dann das schlechte Abschneiden von Google zu erklären?

    Oder bewirkt gerade die Tiefe der Google-Suche, dass die (wahrgenommene) Qualität des Ergebnisses sinkt? Wollen die Nutzer lieber eine Liste von Domainamen, durch die sie sich dann durchklicken können, anstelle einer möglichst vollständigen Liste von deep Links?

  • Die Surfer sind halt nicht mehr naiv, sondern lernen mit dem neuem Medium umzugehen und das heißt auch verstehen, was die Suchergebnisse tatsächlich aussagen.

  • @Marian: weil Google immer besser war, ist die Enttäuschung grösser.

    @Joaquin: ich glaube nicht, dass sich die Wahrnehmung geändert hat, sondern wirklich die Qualität.

  • Ich habe mich dieser Tage auch über ein Suchergebnis geärgert, weil Google den zweiten Teil eines zusammengesetzten Hauptworts ignoriert hat und mit nur Ergebnisse zum ersten Wort geliefert hat. Erst als ich das eine und einzige Suchwort in Anführungsstriche gesetzt hatte, kamen Treffer für mich. Das war neu für mich.

  • Diese Entwicklung beobachte ich auch schon seit einiger Zeit.
    Seit einigen Wochen nutze ic Google entschieden weniger.
    Eine Chance für Rivva, Technorati, wikiaSearch & Co.

  • Was aus dem Tech Crunch Beitrag nicht hervorgeht ist, welche Parameter für die Beurteilung der Suchqualität hervorgehen. Mit Sichehreit ist die Anzahl der Keywords mit ein ausschlaggebendes Kriterium für die Suchqualität. Allerdings hat sich auch die Erwartungshaltung der User geändert.

    Heutzutage haben die User einen gößeren Anspruch an den Suchergebnissen, da Sie gezieltere Informationen in bestimmten Formten (z.B. PDF, Audio, Video) haben möchten um diese u.a. weiterzuverarbeiten. Früher hingegegen hat der einache Verweis auf die Webseite gereicht.

    Sorry für die nun folgende Eigenwerbvung: Aber mehr zum Thema Qualität von Suchmaschinen findet Ihr auch in meinem Artikel http://www.lars-heppner.de/blog/2008/01/die-qualitt-von-suchmaschinen-und-warum.html

  • Ich persönlich bin mit den Suchergebnissen recht zufrieden, was daran liegen mag, dass ich meist sehr spezielle Suchbegriffe verwende. Ich glaube aber auch, dass Blogs von einer Optimierung der Suchverfahren nicht profitieren würden.