Titelaufnahme

Titel
Detektion von Directed Hate Speech, Online Harassment und Cyberbullying in Online Communities / vorgelegt von Uwe Bretschneider
VerfasserBretschneider, Uwe
GutachterPeters, Ralf
BeteiligtSackmann, Stefan [GutachterIn]
KörperschaftMartin-Luther-Universität Halle-Wittenberg
ErschienenHalle, 2017
Umfang1 Online-Ressource (115 Seiten)
HochschulschriftMartin-Luther-Universität Halle-Wittenberg, Dissertation, 2017
Anmerkung
Tag der Verteidigung: 11.07.2017
SpracheDeutsch
DokumenttypE-Book
SchlagwörterOnline-Community / Missbrauch / Beleidigung / Automatische Identifikation
URNurn:nbn:de:gbv:3:4-20521 
Zugriffsbeschränkung
 Das Dokument ist frei verfügbar.
Dateien
Detektion von Directed Hate Speech, Online Harassment und Cyberbullying in Online Communities [5.49 mb]
Links
Nachweis
Keywords
Online Harassment; Cyberbullying; Hate Speech; Erkennung; Klassifikation; Machine Learning
Keywords (Englisch)
Online Harassment; Cyberbullying; Hate Speech; Detection; Classification; Machine Learning
Keywords
In Online Communities verbreiten sich digitale Inhalte schnell und weitestgehend ohne Inhaltsprüfungen wodurch die Gefahr des Missbrauchs für hasserfüllte Kommunikation besteht. Die Zunahme dieser als Hate Speech bezeichneten Inhalte veranlasst Online Communities zum Einsatz von Personal um derartige Fälle manuell zu erkennen. Aufgrund der Vielzahl an Nachrichten ist dies jedoch arbeits- und kostenintensiv. Das Ziel der Dissertation besteht darin Verfahren zur automatischen Detektion von Hate Speech in Online Communities zu konzipieren und zu implementieren. Die entwickelten Verfahren basieren auf einem Sequenzmodell zur Strukturierung von Texten und einem Pattern-basierten Ansatz zur Detektion von Bezügen zwischen hasserfüllten Wörtern und referenzierten Opfern. Die Evaluationsresultate zeigen eine Verbesserung der Klassifikationsgüte gegenüber existierenden Verfahren. Zudem ermöglicht das Verfahren die Analyse von zusammenhängender Kommunikation in Rahmen von Cyberbullying.
Keywords
The digital nature of Online Communities allows unrestricted and anonymous exchange of content. Consequently they are vulnerable for abuse especially in the form of offending communication (Hate Speech). The rising amount of Hate Speech causes Online Communities to hire personnel that manually examines user generated content to detect such cases. However due to the vast number of messages this task is labor-intensive and time-consuming. The goal of this dissertation is to design and implement software artifacts to automatically detect Hate Speech including the referenced victims. The developed methods are based on a sequence model to structure texts and a pattern-based approach to detect grammatical links between hateful words and the referenced victims. The presented method achieves improvements compared to existing approaches with respect to the classification performance. Additionally it enables the analysis of interrelated communication that is typical for Cyberbullying.