Le nouveau détecteur de contournement des interdictions de Twitch, basé sur l’apprentissage automatique, sera activé par défaut

0
436

Ce changement fait suite aux critiques incessantes de cette année concernant l’incapacité de Twitch à protéger les streamers des « raids haineux » et autres harcèlements.

En juillet dernier, Twitch a ajouté une multitude de balises pour améliorer la découverte des chaînes appartenant à des utilisateurs de diverses identités, notamment des streamers trans, noirs et handicapés. Cela a également servi de paratonnerre aux harceleurs pour trouver et diriger leur haine contre ces communautés. Les « raids haineux », au cours desquels des comptes automatisés inondent les chats de discours désobligeants ou violents, sont particulièrement flagrants.

La situation a atteint son paroxysme le 1er septembre lorsqu’un groupe de streamers a organisé un « DayOffTwitch » pour protester contre la réponse inadéquate de Twitch à ce problème. Twitch a répondu en offrant aux streamers la possibilité de demander une vérification basée sur le numéro de téléphone pour participer à leurs chats, ce qui semble avoir atténué le pire des raids haineux.

Le dernier ajout de Twitch à ses outils de sécurité et de protection de la vie privée devrait permettre aux streamers de disposer de nouvelles options de modération, notamment pour faire face aux individus à problèmes qui contournent les interdictions en créant d’autres comptes. Dans son annonce du 30 novembre, Twitch a présenté un système d’apprentissage automatique qui tente de détecter de tels utilisateurs.

Par défaut, lorsqu’un tel compte est détecté comme participant au chat, sa contribution est soit marquée dans le canal, soit mise en sourdine en attendant l’action du modérateur, en fonction de la probabilité que l’algorithme estime qu’il s’agit d’un utilisateur indésirable. Les streamers peuvent ajuster la sévérité de cette réponse automatique initiale, l’option la plus extrême étant le bannissement automatique des comptes suspects.

L’annonce comprenait une mise en garde concernant la précision du programme :

« Il faut se préparer, en particulier au moment du lancement, à ce que l’apprentissage automatique ne soit jamais précis à 100 %, ce qui signifie qu’il existe une possibilité de faux positifs et de faux négatifs. C’est pourquoi la détection des utilisateurs suspects ne bannit pas automatiquement tous les évadés possibles ou probables… L’outil apprendra des actions que vous entreprendrez et la précision de ses prédictions devrait s’améliorer au fil du temps en conséquence. »

J’apprécie la modularité de l’outil et le contrôle qu’il offre à quelqu’un lorsqu’il modère sa propre chaîne. Twitch doit au moins cela aux streamers étant donné la mesure dans laquelle elle a laissé persister le problème des raids haineux, ainsi que l’affreuse situation de la musique protégée par le droit d’auteur et la purge des anciennes vidéos qui en a découlé en octobre dernier.