Von Martin Suchrow

Facebook und YouTube lenken unsere Aufmerksamkeit auf bestimmte Nachrichten, Posts, Videos, Links oder Fotos, die wir gerne sehen. Anderen Nutzer*innen zeigen sie andere Inhalte. Das klingt nett, birgt aber auch Gefahren. Jetzt, spätestens seit den US-Wahlen, ist das Thema auf der politischen und sozialen Agenda. Also, worum geht’s?

Zuspruch ist ein angenehmes Gefühl. Mit Widerspruch umzugehen, erfordert konstante Wachsamkeit. Deswegen mögen wir es, uns mit Zuspruch zu umgeben. Es ist schön zu sehen, dass andere genauso denken wie wir.

Diese Erkenntnis machen sich auch Facebook, Twitter und Co. zu Nutze. Mit jedem Like und jedem Abruf werden die angezeigten Inhalte auf den oder die jeweilige*n Nutzer*in zugeschnitten, oder „personalisiert“ wie man sagt. Lese ich bei Facebook immer wieder Artikel über die positiven Effekte von Zuwanderung und reagiere ich darauf mit einem „Like“ oder einem „Favorite“ bei Twitter, kann man mich einer Kategorie von Nutzer*innen zuordnen: Kategorie links grün, zum Beispiel. Also werden mir Artikel angezeigt, die in die gleiche Kategorie passen und mir wahrscheinlich gefallen. Das gleiche gilt auch für Produkte: Suche ich bei Amazon immer wieder nach Fahrradreifen, ist es wahrscheinlich, dass ich mich auch für Fahrradklingeln interessiere.

Amazon, Facebook, Netflix, Reddit, YouTube, Twitter, Google etc., erzeugen Blasen, um Kunden zu binden. Umso wohler wir uns fühlen, desto länger bleiben wir auf den jeweiligen Internetseiten. Je besser die Videos auf uns zugeschnitten sind, die YouTube uns vorschlägt, umso eher werden wir auch das nächste anklicken. Jede Minute, die wir auf den Seiten verbringen, bringen wiederum Werbeeinnahmen oder erhöhen die Wahrscheinlichkeit, dass wir ein Produkt kaufen. Die Algorithmen, die unser Verhalten analysieren und uns die entsprechenden Inhalte anzeigen, werden immer raffinierter. Es bleibt nicht bei „links grün“ oder „konservativ“. Tausende einzelner Erkenntnisse werden analysiert und ergeben zusammen ein dezidiertes Bild von jedem*r Nutzer*in.

Zum Beispiel der Facebook Filter zeigt wie diese Algorithmen arbeiten. Zuerst gab es drei Kategorien. Erstens, Affinität, also die Interaktion der User mit dem jeweiligen Post oder Inhalt. Dazu zählen

Kommentare, Likes und shares. Zweitens: Gewichtung der Interaktion. Zum Beispiel ist ein Share „mehr Wert“ als ein Like. Und Drittens Aktualität. Neuste Posts werden zuerst angezeigt. Weitere Funktionen wurden durch diverse Updates hinzugefügt. Jetzt gehen auch das Interesse des Users am Ersteller oder der Erstellerin des Posts und die Art von Inhalt mit in die Erstellung des jeweils angezeigten Feeds mit ein. Facebook misst auch die Zeit, die ein*e Nutzer*in mit einem Inhalt verbringt. Auch werden die Nutzer*innen Kategorien zugeordnet die für die „Optimierung“ der Werbung genutzt werden. Dazu zählen Alter, Geschlecht, Interessen und Wohnort. So bekommt jeder seinen höchstpersönlichen Feed.

Kritisch wird dieser aufgelegte Filter jedoch, wenn ich nicht mehr sehe, was anderen angezeigt wird. Wenn ein Teil der Nutzer*innen zum Beispiel nur sieht, welche Skandale dem politischen Gegner anhaften und die andere Seite nur sieht, wie großartig der eigene Kandidat oder die eigene Kandidatin ist. Dieses Phänomen hat das Wall Street Journal in dem Projekt „Blue Feed, Red Feed“ sehr eindrücklich dargestellt. Es zeigt den Feed eines typisch demokratischen Nutzers neben dem eines typisch Republikanischen. Die beiden Feeds lesen sich wie ein Gegensatzpaar und zeigen völlig gegenteilige Meldungen, teilweise auch zu den gleichen Nachrichten.

Die sozio-kulturelle Filterblase

Aber nicht nur im Netz umgeben uns Inhalte, die unseren Sichtweisen entsprechen. Und auch nicht erst seit dem es das Internet gibt. Schon immer entstanden Filterblasen um bestimmte Gruppen. Die Bewohner*innen eines Dorfes, zum Beispiel, erhielten eben die Nachrichten durch den „Dorf-Filter“. Die Leser*innen einer Zeitung folgten den Journalist*innen und Verleger*innen in ihren Meinungen. Da wir, generell gesprochen, auch in unserem engen Umkreis Widerspruch meiden, ist es sogar wahrscheinlich, dass wir Freunde haben, die eine ähnliche Meinung haben wie wir.

Wenn es doch mal zu einer Auseinandersetzung kommt, ist dies vielen eher unangenehm. Es wird nicht als politische Herausforderung, sondern eher als Bedrohung gesehen. Dem einen Freund oder der einen Freundin, der/die Schiedsgerichte gut findet oder der eine*n Bekannte*n, der/die sich in der AfD engagiert wird mit Fassungslosigkeit und Härte begegnet, nicht mit Interesse für seine oder ihre Position. Schließlich umgeben uns ja so viele Inhalte, die uns recht zu geben scheinen. Da ist es schön, dass die meisten unserer Freunde ähnlich denken wie wir. Oder?

Endlich nur noch meine Inhalte?

Denn es hat ja viele Vorteile: Google weiß, ob ich mit „Golf“ den Wagen oder den Sport meine, Spotify und iTunes haben die perfekte Playlist für mich schon bereitliegen. Aber wenn mir meine Tageszeitung nur noch die Artikel anzeigt, auf die ich wahrscheinlich klicken werde, ist das …ehrlich gesagt, richtig problematisch.

Denn auf einmal lese ich andere Nachrichten als mein Nachbar. Ich erlebe eine ganz andere Zusammensetzung der Realität, als andere. Es ist fast unmöglich sich in einer gesellschaftlichen Diskussion auf „Fakten“ zu einigen, wenn jede*r andere Realitäten kennt.

Also wie groß ist der Einfluss? Ist die Filterblase sogar für den Wahlsieg Donald Trumps verantwortlich? Lennart Krotzek stellt diese Frage hier in seinem Blogeintrag.

Das Wissen über die Existenz der Filterbubble ist bereits der erste Schritt, um mit ihr umzugehen. Laut einer Studie der University of Illinois wussten mehr als die Hälfte der Teilnehmer*innen dieser Studie nicht, dass die gesehenen Inhalte gefiltert/sortiert waren. Aber wie soll man sich umfassend informieren, wenn man nur eine Seite sieht, genau das aber nicht weiß?

Man könnte Facebook verpflichten, jedem auch einen anderen Standpunkt anzuzeigen. Facebook weigert sich aber vehement gegen jede Moderation der Inhalte. Auch das ist verständlich, denn Facebook die Macht über die Inhalte zu geben missfällt ebenso vielen. Hier müssen noch viele Diskussionen geführt werden.

Zumindest sind wir nicht darauf beschränkt uns den Filterblasen zu ergeben. Esther van Santen schreibt hier über die Möglichkeiten der Nutzer*innen, dem Echokammer-Effekt entgegenzuwirken.

Eigentlich soll die „Personalisierung“ der Inhalte uns ein angenehmes Gefühl beim Surfen im Netz geben. Wenn man ehrlich ist, dann macht es die Blase aber noch härter unbeschwert zu surfen. Denn es wäre einfacher die gegenteiligen Standpunkte zu ertragen, als an der eigenen, gezeigten Realität zu zweifeln.

 

Schreibe einen Kommentar