Mehrere Menschen lehnen an eine Wand, hinter ihnen Fenster, und schauen in ihre Handys.

Wirtschaftsinformatiker Andreas Eckhardt spricht im Interview über den Einfluss von sozialen Medien auf den Online-Diskurs.

„Oft ein­sei­tige Infor­ma­ti­ons­ver­brei­tung in Social Media“

Der Wirtschaftsinformatiker Andreas Eckhardt hat sich mit seinem Mitarbeiter Khalid Durani und weiteren Kollegen in einer aktuellen Studie den Einfluss von sozialen Medien auf den Online-Diskurs – konkret bezogen auf visuelle Medien im Krieg in der Ukraine – näher angesehen. Die Ergebnisse lassen sich auch breiter lesen.

Medien sind im klassischen Sinn „Gatekeeper“: Mit ihrer Entscheidung, über welche Themen sie in welchem Umfang berichten, beeinflussen sie den öffentlichen Diskurs. In Zeiten sozialer Medien avancieren auch Einzelpersonen zu Gatekeepern – welche Auswirkungen das hat, erläutert der Wirtschaftsinformatiker Andreas Eckhardt im Interview.

Sie haben sich das Phänomen des Gatekeepings näher angesehen. Können Sie den Begriff kurz definieren? Was ist Gatekeeping?

Andreas Eckhardt: Eine einheitliche Definition zu Gatekeeping existiert nicht. Im Kontext von Informationen versteht man darunter die Kontrolle über Information, wie sie in und durch bestimmte Kontrollpunkte fließt, sogenannte „Gates“. Dabei handelt es sich beispielsweise um tagesaktuelle Nachrichten. Historisch konnten primär mächtige Eliten, etwa Regierungen, und Institutionen, zum Beispiel Printmedien, TV und Radio, Gatekeeping betreiben. Allerdings ermöglichen das Internet und insbesondere Social-Media-Plattformen, dass auch die Audience – ergo alle Online-Nutzer:innen dieser Plattformen – aktiv Diskurse als Audience-Gatekeeper beeinflussen.

Konkret war ein Russland-Forum auf der Plattform Reddit Gegenstand Ihrer Untersuchung. Wie sind Sie auf dieses Subreddit gestoßen?

Wir stießen auf das Thema Gatekeeping im späten Januar bzw. frühen Februar 2021. Zu diesem Zeitpunkt hatten wir uns nach Social-Media-Plattformen umgesehen, in welchen wir visuellen Diskurs zu besonders kontroversen politischen Themen analysieren können. Dabei stießen wir schnell auf die Plattform Reddit mit ihren diversen Unterforen. Wir haben uns mehrere davon angeschaut, sind aber schnell auf den Subreddit /Russia gekommen, da sich zu dieser Zeit die Spannungen zwischen Russland und Ukraine zunehmend verschärften und die Weltöffentlichkeit mit Sorge auf den russischen Truppenaufmarsch an der ukrainischen Grenze blickte.

Was war Ihre Ausgangshypothese?

Unser Forschungsprojekt begann vor dem Krieg. Wir sind explorativ vorgegangen und erwarteten, dass die Spannungen zwischen Russland und Ukraine den visuellen Diskurs im Forum beeinflussen würden. Als es zum Kriegsfall kam, gingen wir davon aus, dass es zu einem intensiveren und radikaleren visuellen Diskurs kommen würde. Zudem gingen wir davon aus, dass die Verbreitung von visuellen Informationen in Social-Media-Plattformen bei Audience-Gatekeepern anders als bei Eliten und Institutionen generell mehr polarisieren würde, da diese meist anonymen Online-Nutzer:innen weniger Verantwortung tragen und auch kaum zur Rechenschaft gezogen werden können.

Hat sich das bestätigt?

Ja, es kam nach Kriegsbeginn zu einem deutlich schärferen und polarisierten visuellen Diskurs. Beispielsweise wurden visuelle Informationen dazu genutzt, um radikale Meinungen zu untermauern und Miss- bzw. Desinformation zu verbreiten.

Lassen sich diese Ergebnisse verallgemeinern und auch auf andere kontroverse Themen übertragen?

Unsere aktuellen Forschungsprojekte deuten darauf hin, dass sich die Ergebnisse durchaus verallgemeinern lassen. Social-Media-Plattformen versprechen zwar Informationsdemokratisierung, sind jedoch durch ihr Design oft durch einseitige Informationsverbreitung gekennzeichnet.

Haben Sie Vorschläge für einen möglichen Lösungsweg?

Es bieten sich (mindestens) vier Lösungswege an. Das erste Problem ist die menschliche Tendenz, Informationen zu suchen und zu verbreiten, die dem eigenen Weltbild entsprechen. Hier ist es wichtig, dass insbesondere Kinder und Jugendliche über diese Tendenz informiert werden. Wichtig wäre es, dass eine selbstkritische Haltung gefördert wird.

Das zweite Problem ist, dass Social-Media-Plattformen durch ihr Design diese Tendenz verschlimmern. Beispielweise können Algorithmen bereits bestehende Interessen und Meinungen verstärken, indem uns nur diejenigen Inhalte in derartigen Plattformen präsentiert werden, die für uns nach Meinung der Algorithmen interessant sind. Auch ist eine völlig offene Verbreitung von Informationen problematisch. Es müssen klare Regeln definiert werden, welche Inhalte verbreitet werden dürfen. So könnten Social-Media-Plattformen klare Qualitätsstandards festlegen – z.B., welche Quellen akzeptierbar sind.

Ein dritter Lösungsweg besteht in der automatischen Detektion von radikalen Inhalten in Social-Media-Plattformen. Solche Lösungen existieren bereits in frühen Formen, wobei hier aber noch rechtliche und ethische Fragen geklärt werden müssen, wer diese Instrumente bis zu welchem Punkt nutzen darf.

Zuletzt muss auch über rechtliche Konsequenzen diskutiert werden. Aktuell ist es noch sehr schwierig, Online-Nutzer:innen für die Verbreitung von Miss- bzw. Desinformationen zur Rechenschaft zu ziehen.

Publikation:
Durani, K., Eckhardt A., Durani, W., Kollmer, T., und Augustin, N.(2024): Visual audience gatekeeping on social media platforms: A critical investigation on visual information diffusion before and during the Russo–Ukrainian War, Information Systems Journal Volume 34, Issue 2, March 2024, DOI: 10.1111/isj.12483 

    Nach oben scrollen