Asset Publisher

Wie Echoblasen die digitale Realität formen

Personalisierte Feeds verstärken extreme Meinungen, lassen kritische Stimmen verstummen und beeinflussen Gesellschaft und Diskurs nachhaltig.

Sie schlagen eine beliebige Zeitung auf. Wie viele Artikel überspringen Sie? Welche überfliegen Sie? Und wie viele Artikel lesen Sie wirklich? Kein Medium bietet ein Programm, das absolut jedem zusagt. Und kein Medium hat diesen Anspruch. Nur der Social Media Algorithmus.

Was auf Instagram die Explore-Page ist, die Entdecker-Seite, wird auf TikTok zur For-You-Page. Die Seiten kuratieren sich selbstständig. Der Algorithmus nimmt wahr, welche Inhalte gefallen und welche „weggeswiped“ werden. Um die Nutzer nicht mit Inhalten zu fluten, die sie nicht interessieren, sortiert der Algorithmus aus. Weniger von dem, was „unwichtig“ ist, und mehr von dem, was gefällt.

Aus einem Rezept wird, begleitet von Tipps für Küche und Wocheneinkauf, ein ganzes Kochbuch. Derzeit im Trend: frisch zubereitete Lebensmittel, am besten regional. Nur aufmerksamen Zuschauern fällt zwischen Sauerteig-Startern und Einmachgläsern auf, dass so manche Köchin mit dem Hashtag #tradwife ein sehr gestriges Rollenbild vertritt. Ein Like und schon reagiert der Algorithmus – der Feed passt sich an. Man rutscht in eine Bubble. Inhalte mit anderen Sichtweisen, egal wie unterschwellig, verschwinden vom Bildschirm. Es ist nicht problematisch, wenn eine Frau sich für ein traditionelles Familienleben entscheidet oder jemand ein konservatives Weltbild hat. Doch die automatisierte Isolation führt in soziale Echokammern.

Die Echokammer-Theorie beschreibt den Prozess in geschlossenen Gruppen, in dem moderate Meinungen zunächst verstärkt und dann immer extremer werden. Fühlt man sich von einer Gruppe in seinen Aussagen bestätigt, teilt man sie umso offener. Die Zustimmung der Gruppenmitglieder lässt das Thema immer lauter und präsenter werden. Aussagen, die in anderen Runden grenzwertig oder gar extrem sind, wirken nur noch leicht überspitzt. Sie fügen sich anfangs subtil in die Debatte ein, bis sie nach genug Bestätigung die Tonalität verändern und radikaleren Einwänden den Weg ebnen. Gegenstimmen werden nicht mehr gehört. Werden sie doch Teil der Diskussion, wertet man sie kollektiv ab.

In Sozialen Netzwerken sind solche Prozesse rasend schnell. Der Algorithmus agiert mit automatisierter Präzision. Nutzer müssen sich keine Räume suchen, in denen sie unbehelligt ihre Meinung kundtun dürfen. Die werden ihnen schier aufgedrängt. Kritische Stimmen, werden übergangen und ungehört entfernt. Die neu gefundene Community bietet für alles eine Erklärung. Und eh man sich versieht, landet man bei Verschwörungstheorien und Fake-News.

Und hier liegt noch ein Problem: Wer keine anderen Perspektiven zulässt, verliert die Fähigkeit zur kritischen Reflexion. Wo keine Fragen von Außen erlaubt sind, wird intern immer weniger hinterfragt. Erst recht nicht die eigene Verantwortung.

Also: Algorithmen steuern, was wir sehen. Doch dafür braucht es unsere Interaktion. Wer nicht nur nach Bestätigung sucht, sollte sich vom Algorithmus nicht einlullen lassen.

Social Media und insbesondere TikTok stehen in dem Ruf, eine Gefahr für junge Menschen zu sein. Machen wir uns nichts vor: Alle Generationen scrollen. Wir geben unsere Daten her und überantworten dem Algorithmus unser ganzes Leben. Darin liegt das Erfolgsgeheimnis dieser Apps. Statt nur die Bildschirmzeit der Generationen Z und Alpha zu limitieren, sollten wir vielleicht ein wenig mehr Feed-Pflege betreiben. Kein gedankenloses Konsumieren mehr. Und immer mal wieder zwischendurch fragen: Wem schenke ich hier meine Aufmerksamkeit? Und will ich das überhaupt?

Marlene Dräger ist Politikwissenschaftlerin mit einem Schwerpunkt auf Internationale Beziehungen, Friedens- und Konfliktforschung sowie politischer Soziologie. Derzeit schließt sie ihr Bachelorstudium an der Philipps-Universität Marburg ab. Ihre Abschlussarbeit widmet sich der politischen Radikalisierung auf TikTok durch individualistisch kuratierte Algorithmen.

comment-portlet

Asset Publisher