Algorithmen sind darauf ausgelegt, uns und unsere Interessen besser kennenzulernen und Inhalte im Netz nach unseren Vorlieben zu filtern. Genau darin liegt eine große Gefahr, wie Studenten der FH Münster herausgefunden haben. Dadurch landen wir alle früher oder später in der Filterblase.
Elvis lebt! Die Mondlandung war inszeniert und die Stadt Bielefeld gibt es eigentlich gar nicht. Unsere Welt ist voller Verschwörungstheorien – einige davon plausibler als andere. Doch während es manchmal spannend oder auch unterhaltsam sein kann, sich mit diesen Ideen zu beschäftigen, haben sie auch eine gefährliche Seite.
Wer online ist, landet irgendwann in der Filterblase
Besonders verstärkt durch das Internet können Menschen so in einer thematischen „Filterblase“ landen. Hierbei werden ihre Ideen – so extrem, absurd oder irrational sie auch sein mögen – von anderen Nutzern und den Inhalten, die sie sehen, nur noch bestätigt.
Neue Stellenangebote
Growth Marketing Manager:in – Social Media GOhiring GmbH in Homeoffice |
||
Social Media & Content Marketing Manager (m/w/d) bonprix Handelsgesellschaft mbH in Hamburg |
||
Projektbetreuer – Social Media / Datenerfassung / Recherche / Kundenservice (m/w/d) deecoob GmbH in Dresden |
Kritische Meinungen oder Kontakt zu Andersdenkenden finden nicht mehr statt. Das gilt natürlich nicht nur für Verschwörungstheorien, sondern auch für Vorlieben, politische Meinungen oder gesellschaftliche Ansichten.
Doch wie landen Menschen eigentlich in einer Filterblase? Welche Rolle spielen dabei das Internet und die Algorithmen bestimmter Websites? Das wollten Jan-Eric Müller und Jonas Wieskamp herausfinden.
Die beiden studieren Wirtschaftsingenieurswesen an der Fachhochschule Münster. Für das Seminar „Technik und Gesellschaft“ untersuchten sie, wie Algorithmen dazu beitragen, dass Nutzer in der Filterblase landen. Ihre These: Wer online recherchiert, gerät früher oder später in eine Filterblase.
Um herauszufinden, ob das wirklich so ist und wie dies genau funktioniert, haben die beiden den Bubble-Effekt in der Nachrichten-App Google News und bei YouTube getestet.
Das Internet weiß (fast) alles über dich
Dazu haben sie ein brandneues Nutzerprofil geschaffen und anschließend ihre Themensuche ganz bewusst gesteuert.
Denn smarte Algorithmen merken sich sehr genau, was wir wann im Internet suchen, auf welchen Websites wir surfen, wie lange wir auf einer Webseite verweilen, welche Browser wir nutzen und was wir kaufen. Mit anderen Worten: Das Internet weiß (fast) alles über dich.
Dieses Wissen nutzen selbstlernende Algorithmen bewusst, um Nutzer besser kennenzulernen. So werden sie von Website-Betreibern wie Netflix, Amazon, Google oder YouTube programmiert.
Warum?
Weil sie so mehr Geld verdienen können. Denn wenn Amazon dich sehr gut kennt, kann dir das Shopping-Portal Produkte zum Kauf vorschlagen, die dich wirklich interessieren – und die du mit einer größeren Wahrscheinlichkeit kaufst.
Social-Media-Portale wie YouTube wiederum verdienen ihr Geld über Anzeigenkunden. Je mehr Nutzer sie auf ihr Portal bringen und je länger diese darauf verweilen, umso attraktiver sind sie für Werbekunden.
Und wie bekommt man User dazu, möglichst lange auf einer Website zu surfen? Indem man ihnen Themen – oder in dem Fall, Videos – vorschlägt, die sie interessieren.
Wie oft hast du schon auf YouTube eigentlich etwas Bestimmtes gesucht, bist dann aber über die tollen Vorschläge in der Seitenleiste völlig vom Thema abgekommen?
Doch wenn ein Algorithmus dir Inhalte vorschlägt, die dich höchstwahrscheinlich interessieren, ist vorher auch ein Ausscheidungsprozess abgelaufen. Der Algorithmus hat dabei entschieden, welche Inhalte er dir nicht anzeigt, beziehungsweise vorenthält.
„Algorithmen filtern Inhalte für uns Nutzer aus, ohne dass das transparent ist oder Nutzer sich dessen bewusst sind“, erklären Jan-Eric Müller und Jonas Wieskamp im Gespräch mit BASIC thinking.
Das haben sie auch in ihrem Selbstversuch festgestellt.
Wer in der Filterblase ist, kommt schwer wieder heraus
So suchten sie sowohl bei Google News als auch bei YouTube gezielt nach Corona-Verschwörungstheorien, um dem Algorithmus beizubringen, dass sie das interessiere. Sie wollten testen, wie lange es dauern würde, bis sie in einer entsprechenden Filterblase landen würden.
„Am Anfang haben wir vor allem vermeintlich seriöse Quellen angezeigt bekommen. Wir mussten die Suche sehr gezielt gestalten und trotzdem hat es überraschend lange gedauert, bis wir in der Filterblase waren“, sagt Jan-Eric Müller.
Einmal in der Filterblase drin, dauerte es dann aber nicht lange, bis sie in einer „Echokammer“ waren. In einer Echokammer werden eigene Ansichten verstärkt, während gegenteilige Meinungen völlig ausgeblendet bleiben.
Bei YouTube bekamen Jonas Wieskamp und Jan-Eric Müller so irgendwann fast nur noch Vorschläge zu Videos mit Inhalten zu einschlägigen Verschwörungstheorien.
Das zeigt zwei Dinge: Es ist nicht ganz so leicht in der Filterblase zu landen, wie man denken mag. Doch wer einschlägige Interessen mitbringt, wird früher oder später darin landen.
Das können harmlose Themen-Blasen sein, wie „Apple-Produkte“ oder „Bio-Küche“, aber auch fragwürdigere Themen wie Verschwörungstheorien oder politisch extremistische Ideologien.
Die beiden Studenten geben zwar zu, dass sie ihren Algorithmus bewusst gesteuert haben. Doch die darunterliegenden Mechanismen der KI bleiben gleich. Bei typischer Internetnutzung dauert es nur entsprechend länger, bis man in einer solchen Filterblase landet.
Mehr Transparenz für Algorithmen
Auch gibt es natürlich Portale wie Netflix, Amazon oder YouTube, auf denen dies viel intensiver ausgeprägt ist als beispielsweise bei der regulären Google-Suche, wo neben deinen Vorlieben auch SEO-Kriterien eine Rolle spielen.
Doch selbst hier werden dir durch die Autocomplete-Funktion durch den Algorithmus bestimmte Vorschläge anzeigt – und andere bewusst nicht.
Idealerweise würden Website-Betreiber offenlegen, wie diese Algorithmen funktionieren, welche Vorschläge ausgefiltert wurden und Nutzern auch mehr Entscheidungsfreiheit darüber geben, sagen Jonas Wieskamp und Jan-Eric Müller.
Das könnte auf unterschiedliche Art erfolgen. Entweder könnte man als Nutzer selbst in die Einstellungen des Algorithmus eingreifen und beispielsweise Interessen-Themen selbst aktivieren oder deaktivieren. Das würde natürlich erfordern, dass Nutzer wirklich aus ihrer bequemen Filterblase ausbrechen wollen.
Auch wäre es möglich, dass bei einer sehr einseitigen Suche im Netz der Algorithmus automatisch neue Themen und Quellen vorschlägt. Ebenfalls denkbar: Eine kurze Anzeige des Algorithmus, welche Inhalte ausgefiltert wurden.
Theoretisch sei auch eine Art gesetzlich vorgeschriebene Mindestdiversität für Algorithmen denkbar, wenn das auch sicherlich nicht sehr leicht umzusetzen wäre, sagen Wieskamp und Müller.
Langfristig hoffen die beiden Studenten, dass ausgebildete Wirtschaftsingenieure in Unternehmen mehr Transparenz und Nachvollziehbarkeit für die Funktionsweise der Algorithmen schaffen würden.
Nach ihrer Seminararbeit sind sie sich jedenfalls sehr bewusst, wie Algorithmen im Netz die angezeigten Inhalte steuern.
Was kannst du gegen die Filterblase tun?
Doch wissen, wie Algorithmen uns in die Filterblase drängen, ist das eine. Dagegen vorgehen, das andere. Denn Algorithmus-Transparenz ist noch Zukunftsmusik. Was kannst du also als Nutzer jetzt schon tun, um dich im Internet mit mehr Vielfältigkeit zu umgeben?
Du kannst im Browser beispielsweise Cookies deaktivieren oder auf verschiedenen Plattformen die personalisierten Inhalte zumindest teilweise abstellen. Auch gibt es die Möglichkeit im Inkognito-Modus oder über einen VPN-Server zu surfen, die dir mehr Schutz vor allwissenden Algorithmen bieten.
Einige Internet-Browser wiederum bieten mehr Anonymität als andere.
Zu guter Letzt kannst du selbstverständlich auch aktiv aus deiner Filterblase heraustreten und dich mit anderen Meinungen auseinandersetzen. Denn schließlich ist oft genau das das Problem der Bubbles: Wir verlieren die Fähigkeit uns rational und ruhig mit Andersdenkenden auszutauschen und so neue Ideen zuzulassen.
Auch interessant:
- Browser-Vergleich: Welcher Dienst bietet dir am meisten Sicherheit?
- Fehleinschätzung! Davor schützt dich der Inkognito-Modus nicht
- So funktioniert der Netflix-Algorithmus
- Facebook ändert seinen Algorithmus – und trotzdem ändert sich nichts
Neue Stellenangebote
Growth Marketing Manager:in – Social Media GOhiring GmbH in Homeoffice |
||
Social Media & Content Marketing Manager (m/w/d) bonprix Handelsgesellschaft mbH in Hamburg |
||
Social Media Community Manager (m/f/d) Flaconi GmbH in Berlin |
||
HR Social Media Manager / Content Creator (m/w/d) freenet AG in Hamburg |
||
Online Marketing Manager – Social Media / SEO / Grafikdesign / CMS (m/w/d) reputatio AG in Pforzheim |
||
Social Media Manager:in zur Vertretung (w/m/d) Universität Duisburg-Essen in Duisburg |
||
Content Creator & Social Media Manager (m/w/d) Synflex Elektro GmbH in Blomberg |
||
(Senior) Manager Online & Social Media (f/m/d) Uniper SE in Düsseldorf |