Twitch’s nieuwe ‘machine learning’ ban evasion detector zal standaard worden ingeschakeld

0
305

De stap komt in het kielzog van de aanhoudende kritiek van dit jaar op Twitch’s falen om streamers te beschermen tegen “hate raids” en andere pesterijen.

Afgelopen juli voegde Twitch een groot aantal tags toe om de vindbaarheid van kanalen van gebruikers met verschillende identiteiten, waaronder trans-, zwarte en gehandicapte streamers, te verbeteren. Dit diende ook als een bliksemafleider voor pesters om deze gemeenschappen te vinden en hun haat tegen hen te richten. Bijzonder schandalig waren de zogenaamde “hate raids”, waarbij geautomatiseerde accounts chats overspoelden met denigrerende of gewelddadige uitspraken.

Op 1 september kwam het tot een hoogtepunt toen een groep streamers een “DayOffTwitch” organiseerde om te protesteren tegen de inadequate reactie van Twitch op de kwestie. Twitch reageerde met een optie voor streamers om verificatie op basis van telefoonnummer te vereisen om deel te nemen aan hun chats, en dit lijkt het ergste van de haataanvallen te hebben verzacht.

Twitch’s laatste toevoeging aan zijn privacy- en beveiligingstools zal streamers hopelijk meer opties geven voor moderatie, in het bijzonder voor het omgaan met probleem individuen die voorbij bans geraken door alternatieve accounts te maken. In zijn aankondiging van 30 november schetste Twitch een machine-learning systeem dat dergelijke gebruikers probeert op te sporen.

In de standaardinstellingen wordt, wanneer wordt ontdekt dat een dergelijk account deelneemt aan de chat, hun input ofwel gemarkeerd in het kanaal of gedempt in afwachting van actie van de moderator, afhankelijk van hoe waarschijnlijk het algoritme denkt dat ze een ongewenste gebruiker zijn. Streamers kunnen zelf bepalen hoe streng die eerste automatische reactie is, met als meest extreme optie een automatische ban voor verdachte accounts.

De aankondiging bevatte een voorbehoud over de nauwkeurigheid van het programma, waarbij werd uitgewerkt:

“Een ding om je op voor te bereiden, vooral rond de lancering, is dat geen machine learning ooit 100% accuraat zal zijn, wat betekent dat er een mogelijkheid is van valse positieven en valse negatieven. Dat is de reden waarom Suspicious User Detection niet automatisch alle mogelijke of waarschijnlijke ontduikers verbant… De tool zal leren van de acties die je onderneemt en de nauwkeurigheid van zijn voorspellingen zou daardoor mettertijd moeten verbeteren.”

Ik waardeer de modulariteit van de tool en hoeveel controle het iemand biedt bij het modereren van hun eigen kanaal. Twitch is streamers op zijn minst dit verschuldigd, gezien de mate waarin het de kwestie van hate raiding heeft laten voortduren, evenals de vreselijke situatie met auteursrechtelijk beschermde muziek en de bijbehorende zuivering van oude video’s afgelopen oktober.