Ein Forschungsteam der Hochschule Darmstadt hat sich einem äußerst wichtigen Thema gewidmet: der Erkennung von Hasskommentaren im Internet. Aber keine Sorge, hier geht es nicht um Botox für die Stirn, sondern um das Projekt BoTox, das Künstliche Intelligenz (KI) einsetzt, um beleidigende und gewalttätige Inhalte in Social-Media-Beiträgen zu identifizieren und zu klassifizieren.
Die Idee hinter BoTox ist, dass die Software automatisch Hasskommentare erkennt und analysiert, um sie dann an die Meldestelle HessenGegenHetze weiterzuleiten. Bereits zwölf verschiedene strafbare Handlungen konnten von der Software identifiziert werden, was zeigt, dass das Team auf dem richtigen Weg ist.
Um juristisches Fachwissen in das Projekt einzubringen, arbeitet das Team mit Dirk Labudde, einem Digitalforensiker von der Hochschule Fresenius in Idstein, zusammen. Schließlich muss die Software nicht nur Hasskommentare erkennen, sondern auch zwischen einem Bot und einem menschlichen Verfasser unterscheiden können. Das ist besonders wichtig, da KI wie ChatGPT Inhalte generieren kann, die von Menschen stammen könnten.
Eine weitere Herausforderung besteht darin, den Kontext zu analysieren, um festzustellen, ob es effektiver ist, Trolle zu ignorieren oder bewusst toxische Aussagen zu kritisieren. Hier geht es also auch darum, die besten Strategien im Umgang mit Hasskommentaren zu finden.
Damit die Software optimal trainiert werden kann, sind umfangreiche Datensätze erforderlich. Das Team nutzt dazu die Schnittstellen von Telegram, Facebook und YouTube. Frühere Projekte, wie zum Beispiel DeTox, hatten auch Zugriff auf Twitter-Daten, aber aufgrund der hohen Kosten für Forschungslizenzen nach der Übernahme von Twitter durch Elon Musk, musste das Team in diesem Fall darauf verzichten.
Das Forschungsprojekt BoTox läuft bis 2025 und wird vom hessischen Innenministerium mit 292.000 Euro gefördert. Natürlich sind aktuelle Themen wie die Corona-Pandemie oder der Krieg in der Ukraine noch nicht in den Daten enthalten, aber das Team arbeitet daran, die Übertragbarkeit der Daten zu verbessern.
Bei den Themen, die behandelt werden, stehen vor allem Antisemitismus, Holocaust-Leugnung, Ausländerfeindlichkeit, Migration, Rassismus und Diskriminierung von Minderheiten im Fokus. Da Männer Hate Speech häufiger als Frauen verbreiten, sind die Anforderungen an das Übungsmaterial hoch. Es ist wichtig, dass die Realität in den Datensätzen widergespiegelt wird.
Um die Bewertung der Kommentare zu gewährleisten, werden sie von drei studentischen Hilfskräften bewertet. Dabei wird festgestellt, ob es sich um eine extremistische Meinung, eine akzeptable Beleidigung oder eine strafrechtlich relevante Äußerung handelt. Anschließend werden die Ergebnisse mit denen der KI verglichen, um festzustellen, ob Menschen und Maschinen ähnliche Einschätzungen haben.
BoTox ist ein wichtiger Schritt im Kampf gegen Hass im Internet. Mit Hilfe von KI können Hasskommentare schneller erkannt und gemeldet werden, um eine sicherere Online-Umgebung für alle zu schaffen. Es bleibt zu hoffen, dass das Projekt erfolgreich ist und in Zukunft noch mehr Menschen vor Hass und Diskriminierung schützen kann.
Schlagwörter: BoTox + Melanie Siegel + Darmstadt
Wie bewerten Sie den Schreibstil des Artikels?