Twitch新的 “机器学习 “禁令规避检测器将默认开启

0
821

此举是在今年不断有人批评Twitch未能保护流媒体人免受 “仇恨突袭 “和其他骚扰的情况下发生的。

今年7月,Twitch增加了许多标签,以提高属于不同身份用户的频道的可发现性,包括变性人、黑人和残疾人流媒体。这也成为了骚扰者找到并直接仇恨这些群体的避雷针。特别令人震惊的是所谓的 “仇恨突袭”,自动账户会用贬低或暴力的言论充斥聊天室。

9月1日,当一群流媒体人发起 “DayOffTwitch “活动,抗议Twitch对这一问题的不充分回应时,事情变得更加严重。Twitch的回应是为流媒体人提供了一个选项,要求基于电话号码的验证来参与他们的聊天,这似乎缓解了最严重的仇恨袭击。

Twitch对其隐私和安全工具的最新补充,希望能给流媒体人提供更多的控制选项,特别是处理有问题的人通过建立替代账户来逃避禁令。在其11月30日的公告中,Twitch概述了一个机器学习系统,试图检测此类用户。

在默认设置下,当检测到这样的账户参与聊天时,他们的输入要么在频道中被标记,要么被静音,等待版主采取行动,这取决于算法认为他们是一个不受欢迎的用户的可能性有多大。流媒体人可以调整最初的自动反应的严厉程度,最极端的选项是自动禁止可疑账户。

公告中对该计划的准确性提出了警告,并详细说明了。

“需要准备的一件事是,特别是在启动时,没有机器学习会是100%准确的,这意味着有可能出现假阳性和假阴性。这就是为什么可疑用户检测不会自动禁止所有可能或可能的逃避者……该工具将从你采取的行动中学习,其预测的准确性应随着时间的推移而提高。”

我很欣赏这个工具的模块化,以及它在管理自己的频道时为人们提供了多少控制权。鉴于Twitch允许仇恨突袭问题持续存在的程度,以及去年10月可怕的版权音乐情况和随之而来的对旧视频的清除,Twitch至少欠流媒体人这么多。