A mudança surge na sequência das contínuas críticas deste ano à falha do Twitch em proteger as serpentinas de “raids de ódio” e outros assédios.
Em Julho passado, Twitch adicionou uma multiplicidade de etiquetas para melhorar a capacidade de descoberta de canais pertencentes a utilizadores de várias identidades, incluindo serpentinas trans, negras, e deficientes. Isto também serviu como pára-raios para os assediadores encontrarem e dirigirem o seu ódio contra essas comunidades. Particularmente flagrantes eram os chamados “ataques de ódio”, em que contas automatizadas inundavam as conversas com discursos depreciativos ou violentos.
As coisas chegaram ao fim no dia 1 de Setembro quando um grupo de serpentinas encenou um “DayOffTwitch” para protestar contra a resposta inadequada de Twitch a esta questão. Twitch respondeu com uma opção para as serpentinas exigirem uma verificação baseada no número de telefone para participar nas suas conversas, e isto parece ter mitigado o pior dos ataques de ódio.
A mais recente adição do Twitch às suas ferramentas de privacidade e segurança dará esperanças de que as serpentinas tenham mais opções de moderação, especificamente para lidar com indivíduos problemáticos que tenham obtido proibições passadas, fazendo contas alternativas. No seu anúncio de 30 de Novembro, o Twitch delineou um sistema de aprendizagem por máquina que tenta detectar tais utilizadores.
Suspicious User Detection, powered by machine learning, está aqui para o ajudar a identificar e restringir os evasores suspeitos de proibição de canais de conversação antes que eles possam perturbar o seu fluxo.
Saiba mais aqui: https://t.co/01cCwnQZfw pic.twitter.com/QWVSnRPg1X
– Twitch (@Twitch) 30 de Novembro de 2021
Em configurações padrão, quando tal conta é detectada participando no chat, a sua entrada é marcada no canal ou silenciada enquanto se aguarda acção do moderador, dependendo da probabilidade de o algoritmo acreditar que é um utilizador indesejado. Os Streamers são capazes de ajustar quão dura é essa resposta automática inicial, sendo a opção mais extrema uma proibição automática de contas suspeitas.
O anúncio incluía uma advertência sobre a precisão do programa, elaborada:
“Uma coisa a preparar, particularmente em torno do lançamento, é que nenhuma aprendizagem da máquina será 100% exacta, o que significa que existe a possibilidade de falsos positivos e falsos negativos. É por isso que a Detecção de Utilizador Suspeito não proíbe automaticamente todos os evasores possíveis ou prováveis… A ferramenta aprenderá com as acções que tomar e a precisão das suas previsões deverá melhorar com o tempo”.
Aprecio a modularidade da ferramenta e quanto controlo ela oferece a alguém ao moderar o seu próprio canal. O Twitch deve pelo menos isto às serpentinas, dada a medida em que permitiu que a questão dos ataques de ódio persistisse, bem como a terrível situação musical com direitos de autor e a sua consequente purga de vídeos antigos em Outubro passado.