Sonstiges

Copy and Comment

kleiner Bloggertipp am Rande: Manchmal fällt das kommentieren auf Blogs doch recht schwer. Und es gibt dann auch nebst den Faulen eine weitere Form, die Kommentare quasi reprinted. Sprich: 1:1 Kopie von Aussagen zwischen verschiedenen Blogs hin- und herschaufelt. Nein, keine Spammer jetzt, die machen das zwar auch, aber mehr oder minder ungezielt. Es ist zwar eine Methode, nicht nochmals alles neu sagen zu müssen, aber letztlich ist es wie eine physische Kopie eines Kommentars, die man wie Handzettel überall auslegt. Das ist in meinen Augen ein vorgefertigter Dialog, der nicht gut ankommt.

Bessere Lösung: Fertige das Statement auf dem eigenen Blog und verlinke in anderen Kommentaren darauf, statt überall die Handzettel manuell dranzubappen. Wenn es schon dieses extreme-commenting sein muss. So fühlt sich der Angesprochene nicht auf den Arm genommen, wenn er es denn merkt, daß es sich lediglich um eine vorgefertigte Nachricht handelt.

*ts, kopfschüttel*


Neue Stellenangebote

Growth Marketing Manager:in – Social Media
GOhiring GmbH in Homeoffice
Senior Social Media Manager:in im Corporate Strategy Office (w/d/m)
Haufe Group SE in Freiburg im Breisgau
Senior Communication Manager – Social Media (f/m/d)
E.ON Energy Markets GmbH in Essen

Alle Stellenanzeigen


Über den Autor

Robert Basic

Robert Basic ist Namensgeber und Gründer von BASIC thinking und hat die Seite 2009 abgegeben. Von 2004 bis 2009 hat er über 12.000 Artikel hier veröffentlicht.

1 Kommentar

  • Ich möchte Deinen Punkt auch mit einer eher technischen Betrachtung aus der SEO-Perspektive untermauern. Das Duplizieren von Kommentaren über mehrere Blogs hinweg kann das Suchmaschinen ranking des/der Blogs, in dem/denen duplizierte Kommentare auftauchen, beeinträchtigen. Das gilt primär für die unter dem permalink erreichbare page, kann aber im Wiederholungsfall und im Zusammenspiel mit reposts und längeren quotes durchaus auch Auswirkungen auf den Blog an sich haben.

    Duplicate content issues werden landläufig meist als Risiko auf page level verstanden, d.h. dass duplizierter bzw. leicht abgewandelter textual content im page text, das ist der Inhalt der page abzüglich des page templates (header, footer, navigation, side wide links, forms …), die Chance vermindert, dass die betroffene page in Suchresultaten erscheint, also nicht ausgeblendet wird. Suchmaschinen sind noch nicht sehr gut bei der Zuteilung des source bonus, also der Feststellung, wo der Artikel zuerst erschienen ist, so dass oft die page des Autors ‚abgestraft‘ wird.

    Weniger bekannt ist, dass die Suchmaschinen seit einigen Jahren Technologien entwickeln, um duplicates und near-duplicates auf block level zu entdecken, und die Resultate statistisch auf höhere levels (page, mini site, domain, network, Web) aggregieren. Genaugenommen ist das eher ein Nebenprodukt einer auf Relevanz gerichteten Entwicklung. Viele komplexe pages (Produktübersichten, Inhaltsverzeichnisse, Blog home pages, Glossare …) enthalten Informationen über verschiedene topics, die nicht immer in einem strengen inhaltlichen Zusammenhang stehen, z.B. bei alphabetischen Verzeichnissen. Es macht daher für Suchmaschinen wenig Sinn, den extrahierten Text einer solchen page auf Relevanz zu einer Suchabfrage zu prüfen, weil durch die Themenvielfalt der Inhalt des relevanten Blocks zu sehr verdünnt wird. Immer mehr werden daher inzwischen auch die Blöcke indiziert, und die query engines liefern dadurch bessere Suchresultate.

    Die Analyse von Blöcken ist bei handcodierten und oft wenig standardkonformen sowie schlecht strukturierten pages im ’static Web‘ nicht ganz unproblematisch, weil die Begrenzungen eines Blocks, der aus verschiedenen HTML Elementen bestehen kann, und nicht immer in einem übergeordneten Element gruppiert ist, schwer zu erkennen sind.

    Ganz anders sieht es da bei dynamischen pages aus, und ganz besonders bei Blogs. Es gibt nur eine relativ geringe Anzahl von scripts, die alle eindeutige footprints aufweisen, was den Analyseaufwand an sich minimiert. Jede einzelne page eines Blogs ist sauber strukturiert, postings und comments sind vom template leicht zu unterscheiden. Jeder Block ist eindeutig identifizierbar, und seine Position in der Hierarchie der page steht fest. Ausserdem stehen den Suchmaschinen mit den korrespondierenden RSS feeds sehr leicht zu parsende Kontrollinstanzen zur Verfügung, die vermutlich bereits zur Priorisierung von category index pages und deren Redundanzen herangezogen werden.

    Es ist also nur logisch, dass Blogs und andere weit verbreitete CMSs als erste von diesen relativ neuen Technologien profitieren. Das bedeutet aber nicht nur relevanteren SE traffic, sondern auch vermehrtes Ausfiltern duplizierter Inhalte, sprich weniger SE traffic für Blogs, die regelmässig exzessiv zitieren, und unter comment spam sowie breit verteilten Kommentaren leiden. Auch wenn es derzeit noch keine massiven Auswirkungen auf den SERPs gibt, lohnt es sich garantiert auf diesen Aspekt vermehrt zu achten.