die berühmte 1% Regel, bestimmt schon mal gehört. Gerade auf user generated Plattformen wie zB der Wikipedia. Das Phänomen besagt, dass nur ein Bruchteil der User einen immens hohen Anteil der Inhalte stemmt. Und damit erst überhaupt die Plattform für die zahlreichen anderen User spannend macht. McKinsey hat dazu eine Chart erstellt. Im Rahmen einer Untersuchung zu Intranets und dem Einsatz von Wikis und Blogs: How companies can make the most of user-generated content (nur mit Anmeldung).
Auf der Y-Achse: wieviel Prozent des Contents habe die Wenigen produziert
Auf der X-Achse: wieviel sind diese Wenige in Prozent
Beispiel: in Second Life werden angeblich 100% der „Inhalte“ von lediglich 6% der Nutzer erstellt. Im Vergleich dazu sind auf del.icio.us weitaus mehr User produktiv, denn dort tragen gar 10% aller User rund 60% zum Content bei und vica versa 90% der User 40% des Contents.
Auch spannend: mit der Zeit werden immer mehr User aktiv. Dieses Phänomen lässt sich auf Wikipedia beobachten. Interestingly, some research suggests that, over time, participation rates throughout the user group increase. In 2004, for example, 90 percent of the contributions to Wikipedia came from just 2 percent of its users; by 2006, the top 2.5 percent of them were responsible for only 60 percent of all new content…
Neue Stellenangebote
Growth Marketing Manager:in – Social Media GOhiring GmbH in Homeoffice |
||
Senior Online Marketing Manager (w/m/d) – Schwerpunkt Social Media Oldenburgische Landesbank AG in Oldenburg, Frankfurt am Main |
||
(Senior) Paid Social Media Manager (m/w/d) Content Fleet GmbH in bundesweit |
Ein Gedanke: ich bin mir sehr sicher, dass zB Photobucket als der Fotodienst No.1 in den USA weitaus mehr produzierende User aufweist. Was auch kein Wunder ist, denn er ist viel weniger auf Sharing der Bilder untereinander als auf das Hosting der Bilder für den User selbst ausgerichtet. Da letztlich der Need eigene Bilder online abzulegen weitaus größer ist, als mit fremden Menschen über die eigenen Bilder zu reden. Denk ich mal. Aber, man muss sich fragen, ob partizipative Plattformen nicht viel mehr User aktivieren könnten, indem sie auch den „ego-usern“ einen Platz im Sinne von Ego-Funktionen anbieten. Statt immer nur den Sharing-Gedanken verkaufen. Welchen Vorteil hätte so etwas? Mehr Content, mehr Andockflächen für mehr User, so mein Gedanke. Gedanklich wäre es doch vorstellbar, dass es Flickr-We und ein Flickr-You gibt und man die Bilder aus dem You-Bereich auch im We-Bereich anzeigt, insofern der Ego-User das zulässt bzw. will.
Egal wie man es dreht und wendet, es gilt das eherne Gesetz, dass die wenigen Aktiven überdurchschnittlich wichtig sind für eine partizipative Plattform und man ein starkes Augenmerk auf diese Usergruppe zwingend richten muss. Ebenso heißt es umgekehrt, dass man bei Weitem nicht alle User aktivieren muss und den Passiven den Zugang zum Inhalt auch suchmaschinenseitig auf die Plattform so einfach wie nur möglich gestaltet. Dazu gehört es auch, dass man die „Surfability“ perfekt gestaltet und die Absprungrate soweit es geht nach unten drückt. Normalerweise spricht man dabei von „Stickyness“. Doch Stickyness und Surfability würde ich gedanklich trennen. Denn, wenn der Inhalt unspannend ist, nützt die beste Surfability nix. Umgekehrt, ist die Surfability mies, nützt der beste Inhalt nix, er vermodert und der User hat keinen Bock, sich auf der Plattform durchzuquälen. Technisch ist das eigentlich einfach, im Wesentlichen gehört zur Surfability natürlich die Geschwindigkeit des Seitenaufbaus. Umzusetzen fällt das nicht easy, da man uU nicht die Ressourcen hat, zig Server aufzustellen. Oder aber, man hat so schlecht programmiert, dass man viel zuwenig User pro Server verkraftet. Auf Dauer kann das in doppelter Hinsicht tödlich werden: es kann sein, dass man zwar ständig neue User gewinnt, doch viele springen wieder ab nach einer gewissen Zeit (wegen lahmer Responszeit eben) und andererseits klebt man sich einen Server nach dem anderen an die Backe und kommt kostenseitig in die Todeszone (no money, no hope).
Tolles Wort: „Surfability“. Wie definiert sich das eigentlich genau? Ich finde nichts Eindeutiges dazu im Netz.
Ich finde diese Aufteilung ziemlich verwirrend. imo macht es wenig Sinn, hier zwei Variablen x, y zu verwenden – mit einer Konstanten und einer Variablen hätte das ganze mehr Aussagekraft.
Mein Problem dabei ist einfach, dass ich nicht weiß, wo die „Geringfügigkeitsschwelle“ liegt – ab wann gehört man zu den „wenigen“? Ist diese Schwelle tatsächlich bei allen Diensten vergleichbar?
Interessant fände ich auch eine Untersuchung auf Abweichung zu einem bestimmten Mittel hin, etwa der Pareto-Verteilung (80/20-Regel). Das wäre zB wegen dem angemerkten Effekt der steigenden Beteiligung bei längerer Laufzeit klärend.
nun ja, ich finde die Chart durchaus sehr schlüssig, immerhin handelt es sich um sowas wie ein Histogramm, wenn auch man bei einem echten Histogramm nicht Äpfel und Birnen miteinander vergleicht: http://de.wikipedia.org/wiki/Histogramm
Interessanter wärs noch, wenn man sich den Verlauf der Aktivität auf Wikipedia anschaut, also 2% der aktiven User, dann 5%, dann 10% usw und das immer im Bezug zum Content setzt.
@alp, kA, obs den Begriff schon gibt, sollte ausdrücken, wie einfach man es dem user macht, durch den gesamten Content durchzusurfen. Sprich, gibt es Crosslinks, Most Viewed, most discussed, you could read this and that unter einem Artikel, etcpp. Beispiel wäre für mich Last.fm oder aber die Top Videoportale. Haufenweise Eintauchmöglichkeiten, man kann nach Tags vorgehen, nach verwandten Videos, man kann über Userprofile gehen usw… wichtig erscheint mir, dass man nicht sinnlos Links verteilt, sondern passende Sprungmarken anzeigt. Und nicht etwa eine baumartige Navigation, wo er kaum quersurfen kann, sondern gar zurückspringen muss, um dann abzuzweigen. Oder aber in Sackgassen kommt, von wo er nicht einfach weiterspringen kann. Das könnte von mir wegen ein Artikel sein, aber am Ende des langen Artikels findet sich weder nix unterhalb, nix daneben, links noch rechts. Stattdessen muss er mühsam hochscrollen, erscheint mir schon als kleine Hürde, es dem User bequem zu machen.
Eine Anmerkung zur 1% Regel bei Inhalten im Netz:
Eine unbekannte, aber bestimmt relevant grosse Anzahl von Registrierungen sind schlicht und einfach Einweg-Accounts; registriert und einmal (oder extrem selten) genutzt fuer was-auch-immer (von Vandalismus bis Ansehen von Inhalten die Registrierung erfordern).
Kein echtes Gegenargument gegen die 1% Regel im Netz, aber eben der Hinweis das Anmeldezahlen immer mit Vorsicht zu betrachten sind.
Was ich mich frage: Ist es nicht besser, viele User zu haben, die ein bisschen beitragen, als wenige User, die sehr viel beitragen? Kommt natürlich aufs Portal, die Inhalte an. Aber es gibt sicher Umgebungen, in denen der Wert pro Beitrag mit der Anzahl der Beiträge des selben Nutzers sinkt. Wo es also nicht positiv ist, wenn die „Wenigen“ den Content dominieren.
Hm, ein paar Beispiele wären guten.. vielleicht hat jemand ne Idee? =)
[…] Konkret besagt die Graphik z.B., dass 2 % der User von Wikipedia 60 % des Contents einstellen. Bei Youtube und SecondLife stellen ca. 4 % der User mehr als 90 % des Contents ein. Bei del.icio.us stellen dagegen 10 % der User 60 % des Contents ein. Das kommt dem Pareto Prinzip (20 / 80 Regel) schon am nächsten. Robert Basic beschäftigt sich mit dieser Kurzstudie sehr ausführlich. Er weist darauf hin, dass die Mitmachrate auf einer Webseite im Laufe der Jahre ansteigt. […]
Vielleicht gäbe es je nach Seite auch ein paar mehr aktive Nutzer, wenn man flexibler von einer kostenlosen Mangelware Gebrauch machen würde: Anerkennung für aktive konstruktive Leistungen. Könnte auch eine Art zugestellte pdf-Urkunde sein: Die Seite … widmet sich …
Nutzen haben davon …. (soziale Komponente ?).
Name hat seit … …. Antworten, Beiträge bereitgestellt. Danke für Dein aktives Engagement. So etwas wäre auch Verständlich für Nichtblogger.
@Tobias: Spezialkenntnisse sind besonders typisch für Newsgroups. Dort lässt sich durch die ergänzenden Antworten beurteilen wie vollständig und hilfreich i.a. ein Beitrag war und die aktivsten lesen und antworten vorrangig in ihren Fach-Newsgroups.
nur so als Konsequenz : wenn Dienste, Websites 1% ausmachen dann wie sieht es aus bei den Blogs? kann man das gleiche behaupten? also ca. 1% der Blogger teilen die 10 Millionen Einnahmen und Leser unter sich *grins*
…ob Robert dazu gehört ? :))))
Das ist ganz normales menschliches Verhalten.
Mach mal einen Verein auf und veranstalte jedes Jahr ein, sagen wir, Barkampffest. 10 Jahre lang.
Dann wirst Du bei den Aktiven, den wirklich Aktiven auf gleiche Werte stoßen.
Es sind immer nur die 1% (ab einer gewissen absoluten Größe).
Wäre interessant zu wissen, wie es beim Blutspenden steht….ich schätze 1%
und wenn es ernst wird politisch oder gar wie da in…
1% raffen sich auf, der Rest?
ich finde solche Untersuchungen irgendwie sinnlos… jeder der von uns einen Teamsport ausübt – kennt das doch.
Von 100 aktiven (bei uns Baseball / Softball) sind maximal 10 bereit mehr zu geben und machen auch andere Dinge (Umpen, Scoren usw…) die restlichen 90 kommen zum Training und den spielen und nutzen die anderen aus dem Verein die was tun als Dienstleister…
Robert,
die Auseinandersetzung mit dem Artikel finde ich gut.
Die dargestellte Grafik allerdings ist ziemlich peinlich für McKinsey – man muß nicht viel von Statistik verstehen, um zu wissen, daß es so nicht geht (wie auch schon Simon oben erwähnte). Wenn die Verhältnisse nicht linear sind und ich die Grenzen pro Dienst beliebig setzen kann, werde ich schon jeden Punkt an nahezu jede beliebige Stelle bekommen, je nachdem welche Interpretation ich gerne hätte.
[edited]
Grüße,
Dirk
[…] user generate 60 % of its content. That comes closer to the 80-20 rule (Pareto principle). Robert Basic makes a conclusion that in fact the percentage of user generated content of one site grows with […]