Symbolbild: Gelber Wander-Wegweiser nach Obergurgl

Digitale Menschenrechtsexpert*innen diskutieren auf Einladung der Universität Innsbruck im Universitätszentrum Obergurgl.

Online-Men­schen­rechts­schutz geht uns alle an

Digitale Menschenrechtsexpert*innen diskutieren auf Einladung der Universität Innsbruck im Universitätszentrum Obergurgl, wie Plattformen Menschenrechte besser schützen können.

Soll Elon Musk bestimmen, was wir online sagen dürfen? Welche Rolle spielen Algorithmen dabei, unsere Aufmerksamkeit in Online-Räumen zu lenken? Und wie kann man effektiv gegen Hassrede online vorgehen? Diesen Fragen widmen sich im Rahmen des Global Digital Human Rights Networks (GDHRNet) Expert*innen aus mehr als 50 Ländern.

Prof. Matthias C. Kettemann vom Institut für Theorie und Zukunft des Rechts leitet eine der drei Arbeitsgruppen des internationalen EU-finanzierten Netzwerks (Global Digital Human Rights Network) (GDHRNet), die sich besonders mit der Praxis der Internetplattformen beschäftigt. Gemeinsam mit Ass.Prof. Dr. Clara Rauchegger organisierte er in Kooperation mit dem Leibniz-Institut für Medienforschung | Hans-Bredow-Institut vom 1.-3. Juli einen Workshop mit 30 Internetexpert:innen im Universitätszentrum Obergurgl der Universität Innsbruck, um die Durchsetzung von Menschenrechten im Internet zu diskutieren.

Höhepunkt des Workshops war die Diskussion der zentralen Ergebnisse einer Studie zu unternehmerischen Best Practices zur Stärkung der Menschenrechte im digitalen Raum. Die 12 Beiträge, die im Sommer im Rahmen eines von Prof. Kettemann herausgegebenen Sammelbandes open access veröffentlicht werden, arbeiten heraus, wie Menschenrechte in der Plattformpraxis besser geschützt werden können.

Schwerpunkte der Studie sind unter anderem die Analyse der versteckten Machtverhältnisse in der Plattformökonomie. Aufgrund ihrer systematischen Einordnung in übergeordneter Ebene haben etwa App Stores großen Einfluss auf die angeboten Apps und erlauben es großen „Gatekeepern“, wie Google und Apple, versteckte Macht auszuüben. Die Studie zeigt auch das innovative Potenzial von Smalltech auf, also Klein- und Mittelplattformen, die oft kreative Ansätze an die Mitwirkung von User:innen pilotieren. Ein weiterer Beitrag der Studie befasst sich mit der Herausforderung, automatisierte Entscheidungssysteme dergestalt zu entwickeln, dass sie diskriminierende Inhalte, wie Hassrede oder Rassismus, effektiv voneinander unterscheiden können – ohne die Meinungsfreiheit in Gefahr zu bringen.

Erscheinen wird die Studie in der von Prof. Kettemann und Prof. Mart Susi (Universität Tallinn), dem Leiter des Netzwerks, herausgegebenen Working Paper Reihe. Bisher sind dort erschienen Analysen zu coronabezogener Desinformation (Viral Information: How States and Platforms Deal with Covid-19-related Disinformation), zu Impfpässen (Vaccine passports), zum Deplatforming von Politiker:innen (Can Platforms Cancel Politicians? How States and Platforms Deal with Private Power over Political Actors: an Exploratory Study of 15 Countries) und zur Regulierung von Information über und in Konflikten und Kriegen (Governing Information Flows During War: a Comparative Study of Content Governance and Media Policy Responses After Russia’s Attack on Ukraine).

    Nach oben scrollen