06.03.2017, 12:52 Uhr

Anti-Troll-Software scheitert an Tippfehlern

Ein neuer Dienst des Google-Spinoffs Jigsaw soll bösartige Online-Kommentare erkennen. Forscher fanden nun heraus, dass die Software bei Fluch- und Schimpfwörtern mit Tippfehlern versagt.
Ende Februar kndigte die Google-Schwesterfirma Jigsaw den Dienst «Perspective» an. Diese Schnittstelle soll es etwa Verlagen ermöglichen, Hass-Kommentare auf ihren Webseiten einfacher zu identifizieren. Dabei analysiert das System die User-Postings und ordnet diesen einen Wert zwischen 0 und 100 einer sogenannten «Giftigkeits-Skala» zu. Je höher der Wert, desto bösartiger der Kommentar. Die Software wurde in einem Pilotprojekt mit der Wikimedia-Stiftung und der «New York Times» getestet. Der Dienst steht jedoch vorerst nur für englischsprachige Diskussionsforen zur Verfügung, später könne er aber auch auf andere Sprachen erweitert werden.

Lücken im System entdeckt

Wie Forscher der Universität Washington herausfanden, hat der Dienst aber noch einige Schwachstellen. Die Erkennung von bösartigen Kommentaren versage etwa, wenn Schimpf- und Fluchwörter falsch oder anders geschrieben sind, berichteten die Forscher in einem Fachbeitrag. Das Wort «idiot» erkennt die Schnittstelle beispielsweise nicht, wenn es Fehler («iidiot») oder Interpunktion («i.diot») beinhaltet. So könne das System ausgetrickst werden, was deutlich tiefere Bewertungen in der «Giftigkeits-Skala» zur Folge habe, schreibt das Forschungsteam weiter. Gleichzeitig erzielen auch gutartige Kommentare hohe Werte auf der «Giftigkeits-Skala», bei denen verletzende Wörter etwa in Negationen («not an idiot») vorkommen. Die Forscher führten dies darauf zurück, dass «Perspective» generell alle Kommentare als bösartig einstuft, die Schimpf- und Fluchwörter beinhalten. CJ Adams, Produktmanager von «Perspective» bei Jigsaw, sagte gegenber Ars Technica, dass «Perspective» noch in den Kinderschuhen stecke und in Kommentaren nur Muster entdecke, die dem System bereits bekannt seien. Nutzer könnten die Schnittstelle aber direkt mit Korrekturen versorgen, damit sie in Zukunft zuverlässiger werde und mehr Formen bösartiger Sprache erkenne.



Das könnte Sie auch interessieren