Datengestützte Analyse von Hate Speech und die Auswirkungen der Regulierung in Deutschland

Datengestützte Analyse von Hate Speech und die Auswirkungen der Regulierung in Deutschland

Soziale Medien sind in jüngster Zeit für viele Menschen zu einem der wichtigsten Informationskanäle geworden, was sich während der Corona-Pandemie noch verschärft hat. Damit sind die sozialen Medien ein Beispiel für die Ambivalenz der Digitalisierung: Einerseits bieten soziale Medien neue Möglichkeiten für soziale Interaktionen und politische Partizipation. Auf der anderen Seite erleichtern sie die Verbreitung von extremistischem Gedankengut und aggressiven oder belästigenden Inhalten.

Um die Verbreitung von Hate Speech im Internet einzudämmen, hat die deutsche Regierung im Oktober 2017 das Netzwerkdurchsetzungsgesetz (NetzDG) eingeführt. Dieses Gesetz verpflichtet soziale Plattformen mit mehr als 2 Millionen Nutzern in Deutschland dazu, Beiträge und Kommentare mit eindeutig hasserfüllten und beleidigenden Inhalten innerhalb von 24 Stunden nach ihrer Meldung zu löschen. Während Deutschland das erste Land war, das ein Gesetz zur Regulierung von nutzergenerierten Inhalten (User Generated Content, UGC) eingeführt hat, haben auch andere Länder sowie die Europäische Kommission in der Zwischenzeit begonnen, UGC mit meist ähnlichen Ansätzen zu regulieren. Dieses Projekt untersucht die Effektivität solcher Regulierungen durch die Beantwortung der Frage, ob das Netzwerkdurchsetzungsgesetz wirksam ist, um die Verbreitung von Hassinhalten in sozialen Netzwerken in Deutschland zu verringern.

Zur Beantwortung dieser Forschungsfrage werden wir empirische Analysen auf einem der weltweit größten sozialen Netzwerke, nämlich Twitter, durchführen. Ein datenbasiertes Verständnis der Verbreitung von Online-Hate-Speech und der Auswirkungen des NetzDG ist entscheidend für die Entwicklung einer erfolgreichen Regulierung von UGC in der EU und anderen Ländern. In Vorstudien mit Differenzanalysen haben wir die Prävalenz von Hassinhalten in migrationsbezogenen Tweets in der deutschen und österreichischen Twittersphäre vor und nach der Einführung des Gesetzes in Deutschland verglichen. Hier konnten wir den kausalen Effekt des Gesetzes auf eine Reihe von Messgrößen, die sich auf hasserfüllte Äußerungen beziehen, anhand von vortrainierten Algorithmen isolieren. Unsere Ergebnisse deuten auf einen signifikanten Rückgang der Anzahl stark toxischer Tweets hin.
In diesem Projekt wollen wir die oben beschriebenen Ergebnisse durch die Anwendung verschiedener ökonometrischer Spezifikationen validieren. Darüber hinaus planen wir, die Analyse um ein differenziertes und umfassendes Maß für Online-Hate-Speech zu erweitern. Zu diesem Zweck wollen wir ein Tool zur automatischen Klassifizierung von Hate Speech entwickeln, das für eine breite Anwendung der Projektergebnisse an andere Umgebungen und Sprachen angepasst werden könnte.

Zudem wird das Projekt aktuelle Entwicklungen untersuchen, die ein großes Medienecho erhalten: Angesichts des militärischen Konflikts in der Ukraine standen Social-Media-Plattformen vor der Herausforderung, Regeln für den Umgang mit Hate Speech im Kontext eines andauernden militärischen Konflikts einzuführen. Des Weiteren kam es durch den Kauf Twitters von Elon Musk zu radikalen Veränderungen im Unternehmen, die sich auch auf den Umgang mit Hate Speech auswirken könnten. Darüber hinaus werden wir bei der Betrachtung von Themen, die Hate Speech beinhalten können, auch aktuelle Themen mit hohem Polarisierungspotenzial, wie z.B. den oben genannten Krieg in der Ukraine und Klimaaktivismus, untersuchen.

Projektteam

Raphaela Andres

Raphaela Andres

Leitung
Researcher

Zum Profil
Zuwendungsgeber
Kooperationspartner
Universität Mannheim, Mannheim, DE // Erasmus-Universität Rotterdam, Rotterdam, DE

Kontakt

Researcher, Raphaela Andres
Telefon +49 (0)621 1235-198