Il nuovo rilevatore di evasione dei ban “machine learning” di Twitch sarà attivato di default

0
728

La mossa arriva sulla scia delle continue critiche di quest’anno al fallimento di Twitch nel proteggere gli streamer da “hate raids” e altre molestie.

Lo scorso luglio, Twitch ha aggiunto una moltitudine di tag per migliorare la scopribilità dei canali appartenenti a utenti di varie identità, compresi gli streamer trans, neri e disabili. Questo è servito anche come parafulmine per i molestatori per trovare e dirigere il loro odio contro queste comunità. Particolarmente egregi erano i cosiddetti “raid dell’odio”, dove gli account automatici inondavano le chat con discorsi sprezzanti o violenti.

Le cose sono arrivate a un punto critico il 1° settembre, quando un gruppo di streamer ha organizzato un “DayOffTwitch” per protestare contro la risposta inadeguata di Twitch al problema. Twitch ha risposto con un’opzione per gli streamer di richiedere una verifica basata sul numero di telefono per partecipare alle loro chat, e questo sembra aver mitigato il peggio delle incursioni di odio.

L’ultima aggiunta di Twitch ai suoi strumenti per la privacy e la sicurezza si spera darà agli streamer ulteriori opzioni per la moderazione, in particolare per trattare con individui problematici che superano i divieti creando account alternativi. Nel suo annuncio del 30 novembre, Twitch ha delineato un sistema di apprendimento automatico che tenta di rilevare tali utenti.

Sulle impostazioni predefinite, quando un tale account viene rilevato mentre partecipa alla chat, il suo input viene contrassegnato nel canale o silenziato in attesa dell’azione del moderatore, a seconda di quanto l’algoritmo ritiene che sia un utente indesiderato. Gli streamer sono in grado di regolare la durezza della risposta automatica iniziale, con l’opzione più estrema che prevede il ban automatico degli account sospetti.

L’annuncio ha incluso un avvertimento sulla precisione del programma, elaborando:

“Una cosa a cui prepararsi, in particolare intorno al lancio, è che nessun apprendimento automatico sarà mai accurato al 100%, il che significa che c’è una possibilità di falsi positivi e falsi negativi. Questo è il motivo per cui il Suspicious User Detection non vieta automaticamente tutti i possibili o probabili evasori… Lo strumento imparerà dalle azioni che intraprendete e la precisione delle sue previsioni dovrebbe migliorare nel tempo come risultato”.

Apprezzo la modularità dello strumento e quanto controllo offre a qualcuno quando modera il proprio canale. Twitch deve agli streamer almeno questo, vista la misura in cui ha permesso al problema dell’hate raiding di persistere, così come l’orribile situazione della musica protetta da copyright e la sua conseguente epurazione dei vecchi video lo scorso ottobre.