Twitch-Leak deutet auf eine massive Reaktion auf die Hassmob-Probleme der Streaming-Site hin
Twitch – Die beliebte Spiele-Streaming-Site Erworben von Amazon im Jahr 2014– Es wurde in den letzten Monaten aufgrund von „Hassüberfällen“ überschwemmt, die vulgäre Rede und Hass in die prominenten Chat-Feeds der Site werfen können. Seit einiger Zeit haben rassistische Beleidigungen und bigotte Referenzen diesen Kampf gewonnen, aber ein durchgesickertes Interface-Update deutet darauf hin, dass Twitch endlich legitime Schritte unternimmt, um giftige Chat-Feeds zu zerquetschen.
Am Sonntag teilte der Branchenreporter Zach Posey Eine Reihe von Screenshots, einschließlich der Schnittstelle als Anscheinend aus dem deutschen Twitch übernommenDies weist auf eine neue Art von Benutzerverifizierungssystem hin, die zum dichten Chat-Dienst kommt. Wie im Bild und in der Beschreibung gezeigt, ermöglicht dieses System Twitch-Benutzern, entweder ihre E-Mail-Adresse oder Telefonnummer zu bestätigen. (Eine Version der E-Mail-Verifizierung existiert bereits, aber derzeit können Twitch-Benutzer dieselbe Adresse für die Massenverifizierung mehrerer Konten gleichzeitig verwenden.)
Der Anreiz, sich für diesen Prozess anzumelden, wird von einzelnen Twitch-Kanalmoderatoren ausgehen, die Personen nur dann zum Chatten gestatten, wenn sie die Anmeldeinformationen (oder beides) überprüfen.
Die durchgesickerte Schnittstelle weist auch auf eine lang ersehnte Twitch-Moderationsfunktion hin, die endlich im Internet aufgetaucht ist: die Möglichkeit, Konten basierend auf ihrer Dauer stummzuschalten. Wenn Ihr Kanal von Hunderten von neu erstellten Konten „angegriffen“ wird, die alle von einem automatisierten System mit Designs betrieben werden, um den dedizierten Chat-Kanal zu überfluten, wird dieses nervige neue System es mit einer Regel wie „Konten müssen älter als eins sein“ sperren Woche“ (oder auch länger, wenn der Gastgeber möchte).
Einen Monat nach #ADayOffTwitch
Ohne diese Systeme mussten Twitch-Benutzer nach zusätzlichen, inoffiziellen Moderationstools suchen, um ein immer aggressiveres Netzwerk von Hass-Angreifern zurückzubringen, von denen einige in einem sich ständig ändernden Netzwerk externer Plattformen organisiert sind, wie z Zwietracht. In einem Ende August veröffentlichten Bericht sagte der Reporter der Washington Post, Nathan Grayson Beschreibt viele Hass-Raid-Systeme. und Ende August Bericht von Marie Su Er zitiert und zitiert direkt einige der hasserfülltesten Sprache und Taktiken, die von Hass-Angreifern vor #ADayOffTwitch am 1.
Da die Moderationstools der Community jedoch auf öffentliche Informationen angewiesen sind und nicht auf die vollständige Kontrolle von Twitch über die neue Benutzerpipeline, sind sie nur sehr effektiv. Hate Raids werden normalerweise mit einer Kombination aus automatisierten Bot-Systemen und der kostenlosen und laschen Benutzeroberfläche von Twitch erstellt. (Letzteres hat immer noch keine Form eines CAPTCHA-Authentifizierungssystems, was es zu einem Hauptkandidaten für einen Bot-Exploit macht.) Während Twitch integrierte Tools zum Blockieren oder Markieren von Nachrichten enthält, die ein Wörterbuch voller vulgärer und hasserfüllter Begriffe auslösen. Die größten Täter von Hassverbrechen haben sich an ihre Wörterbücher gewandt, die Werkzeuge durchkämmen.
Diese Tools ermöglichen es Hassräubern, grundlegende Moderationstools zu umgehen, da sie Wörter mit nicht-lateinischen Zeichen erstellen – und sie generieren können in Tausenden Aus Kopien berüchtigter Beleidigungen durch Mischen und Abgleichen von Buchstaben und erscheinen so nahe genug am ursprünglichen Wort. Ihre Macht zu Hass und Intoleranz explodiert dank eines Kontexts, der unschuldige Worte in gezielte Beleidigungen verwandelt, je nachdem, welche Randgruppe sie ansprechen. Seitdem Twitch Kostenpflichtige Updates bis hin zu wörterbuchbasierten Moderationssystemen, die unter anderem nach einer Flut von nicht-lateinischen Schriftzeichen suchen. Aber auch diese erwiesen sich für einige betroffene Twitch-Hosts als unzureichend.
früher in diesem Monat, Twitch hat zwei Benutzer verklagt, die als wiederholte Hassräuber angesehen werden. Während dies jedoch zu den Erstellern von Tausenden von Konten passt, hat das nachfolgende Whack-a-Mole-Hassredespiel betroffene Benutzer dazu gebracht, Tools und Systeme zu entwickeln, die den Strom der Toxizität besiegen können. Und wenn Benutzer von abonnentenunterstützten Sendungen ihren Lebensunterhalt bestreiten möchten, haben betroffene Kanäle – die in der Regel von einer kleineren Anzahl von Sendungen gehostet werden, manchmal mit Dutzenden oder Hunderten von Zuschauern – nur wenige hervorragende Referenzmöglichkeiten. Im Westen, nein YouTube-Spiele Noch Facebook-Spiele Sie bieten deutlich leistungsfähigere Werkzeuge zur automatischen Anpassung und unterhalten das Publikum nicht einmal in der Nähe der massiven Zahlen von Twitch. Letzteres wird zu einem Knackpunkt für jeden Gastgeber, der auf natürliche Weise die Zuschauerzahlen erhöhen möchte, während er seinen Kanal mit Tags wie „LGBTQIA+“ oder „African American“ markiert.
Als Ars Technica auf Fragen zu Busseys Bericht und zu anderen eingebetteten Tools zugegriffen wurde, die das Netzwerk den Machern angesichts von Hassmobs möglicherweise zur Verfügung stellt, lehnte ein Twitch-Vertreter einen Kommentar ab.
„Lebenslanger Social-Media-Liebhaber. Fällt oft hin. Schöpfer. Leidenschaftlicher Feinschmecker. Entdecker. Typischer Unruhestifter.“