La medida llega tras las continuas críticas de este año sobre la incapacidad de Twitch para proteger a los streamers de las «incursiones de odio» y otros acosos.
El pasado mes de julio, Twitch añadió una multitud de etiquetas para mejorar el descubrimiento de los canales pertenecientes a usuarios de diversas identidades, incluidos los streamers trans, negros y discapacitados. Esto también sirvió de pararrayos para que los acosadores encontraran y dirigieran su odio contra esas comunidades. Especialmente atroces fueron las llamadas «redadas de odio», en las que cuentas automatizadas inundaban los chats con discursos despectivos o violentos.
La situación llegó a su punto álgido el 1 de septiembre, cuando un grupo de streamers organizó un «DayOffTwitch» para protestar por la inadecuada respuesta de Twitch al problema. Twitch respondió con una opción para que los streamers requieran una verificación basada en el número de teléfono para participar en sus chats, y esto parece haber mitigado lo peor de las incursiones de odio.
La última adición de Twitch a sus herramientas de privacidad y seguridad dará a los streamers más opciones para la moderación, específicamente para tratar con individuos problemáticos que superan los baneos creando cuentas alternativas. En su anuncio del 30 de noviembre, Twitch describió un sistema de aprendizaje automático que intenta detectar a estos usuarios.
La detección de usuarios sospechosos, basada en el aprendizaje automático, está aquí para ayudarte a identificar y restringir a los sospechosos de evadir los baneos de canal antes de que puedan interrumpir tu transmisión.
Obtenga más información aquí: https://t.co/01cCwnQZfw pic.twitter.com/QWVSnRPg1X
– Twitch (@Twitch) 30 de noviembre de 2021
Con la configuración por defecto, cuando se detecta una cuenta de este tipo participando en el chat, su entrada se marca en el canal o se silencia a la espera de la acción del moderador, dependiendo de la probabilidad de que el algoritmo crea que es un usuario no deseado. Los streamers pueden ajustar la dureza de esa respuesta automática inicial, siendo la opción más extrema un baneo automático de las cuentas sospechosas.
El anuncio incluía una advertencia sobre la precisión del programa, explicando:
«Algo para lo que hay que prepararse, especialmente en torno al lanzamiento, es que ningún aprendizaje automático será nunca 100% preciso, lo que significa que existe la posibilidad de falsos positivos y falsos negativos. Por eso, la Detección de Usuarios Sospechosos no prohíbe automáticamente a todos los evasores posibles o probables… La herramienta aprenderá de las acciones que realices y la precisión de sus predicciones debería mejorar con el tiempo como resultado».
Aprecio la modularidad de la herramienta y el control que ofrece a la hora de moderar su propio canal. Twitch le debe a los streamers al menos esto, dado el grado en que permitió que persistiera el problema de las incursiones de odio, así como la horrible situación de la música con derechos de autor y su consiguiente purga de vídeos antiguos el pasado mes de octubre.