The move comes in the wake of this year’s ongoing criticism of Twitch’s failure to shield streamers from „hate raids” and other harassment.
W lipcu tego roku, Twitch dodał wiele tagów, aby poprawić wykrywalność kanałów należących do użytkowników o różnych tożsamościach, w tym trans, czarny i niepełnosprawnych streamerów. To również posłużyło jako piorunochron dla nękających, aby znaleźć i skierować swoją nienawiść przeciwko tym społecznościom. Szczególnie dotkliwe były tak zwane „naloty nienawiści”, podczas których zautomatyzowane konta zalewały czaty obraźliwymi lub brutalnymi wypowiedziami.
Sprawy stanęły na głowie 1 września, kiedy grupa streamerów zorganizowała „DayOffTwitch”, aby zaprotestować przeciwko nieodpowiedniej reakcji Twitcha na ten problem. Twitch odpowiedział z opcją dla streamerów, aby wymagać weryfikacji na podstawie numeru telefonu do udziału w ich czatach, a to wydaje się złagodzić najgorsze z nalotów nienawiści.
Twitch najnowszy dodatek do jego prywatności i narzędzi bezpieczeństwa będzie miejmy nadzieję dać streamerów dalszych opcji do moderacji, zwłaszcza do czynienia z problemami jednostki coraz przeszłości bany przez tworzenie alternatywnych kont. W swoim ogłoszeniu z 30 listopada, Twitch nakreślił system uczenia maszynowego, który próbuje wykryć takich użytkowników.
Suspicious User Detection, zasilany przez uczenie maszynowe, jest tutaj, aby pomóc Ci zidentyfikować i ograniczyć podejrzanych omijania zakazu kanału z czatu, zanim mogą one zakłócić swój strumień.
Dowiedz się więcej tutaj: https://t.co/01cCwnQZfw pic.twitter.com/QWVSnRPg1X
– Twitch (@Twitch) 30 listopada 2021
Na domyślnych ustawieniach, gdy takie konto zostanie wykryte w czacie, jego wkład jest albo zaznaczany w kanale, albo wyciszany w oczekiwaniu na działanie moderatora, w zależności od tego, jak bardzo algorytm uważa, że jest to niepożądany użytkownik. Streamerzy są w stanie dostosować, jak ostra jest ta początkowa automatyczna reakcja, z najbardziej ekstremalną opcją automatycznego bana na podejrzane konta.
Ogłoszenie zawierało zastrzeżenie dotyczące dokładności programu, rozwijając:
„Jedną z rzeczy, na którą należy się przygotować, szczególnie w okolicach startu, jest to, że żadne uczenie maszynowe nigdy nie będzie w 100% dokładne, co oznacza, że istnieje możliwość wystąpienia fałszywych pozytywów i fałszywych negatywów. Dlatego też Wykrywanie Podejrzanych Użytkowników nie banuje automatycznie wszystkich możliwych lub prawdopodobnych osób unikających… Narzędzie będzie się uczyć na podstawie podejmowanych przez Ciebie działań, a dokładność jego przewidywań powinna z czasem ulec poprawie.”
Doceniam modularność narzędzia i to, jak wiele kontroli oferuje komuś podczas moderowania własnego kanału. Twitch jest winien streamerom przynajmniej tyle, biorąc pod uwagę stopień, w jakim pozwolił na utrzymywanie się problemu hate raidingu, a także okropną sytuację z muzyką chronioną prawem autorskim i towarzyszącą jej czystkę starych filmów w październiku zeszłego roku.