Prof. Kettemann stellt bei der KommAustria neuen Verhaltenskodex für Plattformen für Mensch-Maschine-Entscheidungsprozesse in der Content Moderation vor

Warum es Menschen und Maschinen braucht, um Online-Inhalte gut zu moderieren?

Der Code of Conduct wurde am Montag, den 10. November 2025, nationalen Digital Services Coordinators (DSCs) sowie Vertreter:innen europäischer Aufsichtsbehörden vorgestellt – darunter die Kommunikationsbehörde Austria (KommAustria) und die französische Autorité de régulation de la communication audiovisuelle et numérique (Arcom).

 

Warum ist ein Code of Conduct notwendig?

“Gut funktionierende Inhaltemoderation ist wichtig zur Sicherung einer Online-Kommunikationswelt, in der Terrorismus und Hassrede keinen Platz haben. Das können Menschen nicht alleine schaffen. Maschinen – also automatisierte Filter – aber auch nicht. Deshalb braucht es ein verantwortliches Zusammenspiel beider Seiten. Gesetze wie der Digital Services Act (DSA) sind wichtig, aber auch Standards helfen dabei, die Praxen von Plattformen zu verbessern. Genau wie der Kodex zu Desinformation, der schon viele Jahre Erfolge zeigt, möchte auch unser Verhaltenskodex, der auf empirischen Untersuchungen beruht und im Rahmen eines intensiven Prozesses mit allen Stakeholdern diskutiert wurde, echte Mehrwerte schaffen”,

erklärt Prof. Matthias C. Kettemann vom Institut für Theorie und Zukunft des Rechts. 

“Es ist ein außergewöhnlicher Moment, dass zentrale europäische Aufsichtsbehörden diesem Code of Conduct nun auf höchster Ebene Aufmerksamkeit schenken. Forschungsbasierte, konsensuale Standards sind in der Plattformregulierung europaweit auf dem Weg, Maßstab zu werden – zum Schutz von Meinungsfreiheit, Vielfalt und demokratischer Teilhabe“, freut sich Prof. Kettemann. 

Plattformen wie Meta und TikTok prüfen täglich, welche Beiträge sichtbar bleiben, entfernt oder eingeschränkt werden. Ziel dieser Content Moderation ist es, schädliche Inhalte wie Hassrede, Gewalt oder Desinformation zu begrenzen. Gleichzeitig sollen Meinungsfreiheit und Vielfalt im digitalen Raum dabei geschützt werden. Aufgrund der enormen Menge an täglich produzierten Inhalten setzen Plattformen auf semi-automatisierte Entscheidungsprozesse in der Content Moderation: KI-
Systeme erkennen und filtern schädliche und problematische Inhalte vor, während in komplexen oder kulturell sensiblen Fällen weiterhin menschliche Moderator:innen entscheiden. Zusätzlich bestimmen algorithmische Empfehlungsmechanismen, welche Inhalte im Feed verstärkt ausgespielt oder kaum sichtbar werden. Dieses Zusammenspiel stößt in der Praxis an Grenzen – etwa bei Fairness, Nachvollziehbarkeit, Kontrolle und dem Schutz von Grundrechten.

 

Was regelt der Code of Conduct?

Der vorliegende Code of Conduct (Verhaltenscodex) definiert zehn klare Leitlinien für faire, transparente und nachvollziehbare Moderationsprozesse auf digitalen Plattformen und großen Online-Diensten. Ziel ist es, das Vertrauen in menschlich-maschinelle Entscheidungen in der Content Moderation zu stärken. Zugleich adressiert der Verhaltenskodex Herausforderungen in den Bereichen Diskriminierungsschutz, Datensicherheit, psychische Gesundheit von menschlichen Moderator:innen, Feedbackprozesse und unabhängige Kontrolle. Zwar legt der Digital Services Act (DSA) rechtliche Mindeststandards fest, doch bleiben viele praktische Anforderungen offen. Der Code of Conduct liefert dafür konkrete normative Leitlinien.


Die zentrale Leitlinien umfassen unter anderem:

  • die systematische Prüfung der Risiken und Auswirkungen automatisierter Systeme
  • Schutzmaßnahmen für marginalisierte Gruppen vor Diskriminierung und digitaler Gewalt
  • die Einhaltung hoher Datenschutzstandards
  • die Berücksichtigung der psychischen Gesundheit von menschlichen Moderator:innen
  • klare und zugängliche Feedback- und Beschwerdestrukturen für Nutzer:innen
  • eine verantwortungsbewusste Gestaltung und Weiterentwicklung der Technik
  • unabhängige Kontroll- und Evaluationsmechanismen
  • Jede Leitlinie enthält überprüfbare Umsetzungsvorschläge für Plattformen.

 


An wen richtet sich der Code of Conduct?

Der Verhaltenskodex richtet sich primär an Plattformbetreiber und internationale Anbieter digitaler Dienste. Er ist außerdem relevant für Aufsichtsbehörden, politische Entscheidungsträger:innen und zivilgesellschaftliche Organisationen.


Wie wurde der Code of Conduct entwickelt?

Der Code of Conduct entstand im Forschungsprojekt Human in the Loop? am Alexander von Humboldt Institut für Internet und Gesellschaft. Das Projekt wird von der Stiftung Mercator gefördert.

Der Verhaltenskodex basiert auf wissenschaftlichen Analysen, Fallstudien und Beteiligung externer Expert:innen aus Zivilgesellschaft, Plattformunternehmen, Rechtswissenschaft, EU-Behörden und NGOs. 

Weiterführende Informationen:  https://graphite.page/coc-strengthening-trust/#background

 

Wie verhält sich der Code of Conduct zum Digital Services Act?

Der Code of Conduct ergänzt die Vorgaben des Digital Services Act (DSA) durch praxisnahe, branchenspezifische Standards und dient als wissenschaftlich fundierte Orientierung, um gesetzliche Anforderungen in konkrete Prozesse zu übersetzen. Ob und wie er künftig in europäisches Recht einfließt, entscheiden Politik und EU-Institutionen. Ziel ist eine europaweite Verankerung der Leitlinien als Standard der Content Moderation. Hinweis: Arcom ist Vice Chair der „Working Group 3 – Content Moderation and Data Access" des Europäischen Gremiums für digitale Dienste (EBDS). Das EBDS koordiniert die Aufsicht über große Plattformen auf EU-Ebene und entwickelt gemeinsame Leitlinien für die Durchsetzung des DSA.
Hinweis: Arcom ist Vice Chair der „Working Group 3 – Content Moderation and Data Access" des Europäischen Gremiums für digitale Dienste (EBDS). Das EBDS koordiniert die Aufsicht über große Plattformen auf EU-Ebene und entwickelt gemeinsame Leitlinien für die Durchsetzung des DSA.

 

Erfahren Sie hier mehr zum Code of Conduct. 

Nach oben scrollen