Twitch se dote de nouveaux outils contre le Cyberharcèlement 🛡
La plateforme de jeux vidéo Twitch a annoncé l’introduction d’un système pour détecter les utilisateurs malveillants qui créent de nouveaux comptes anonymes pour revenir sur des chaînes qui les ont bannis, un phénomène problématique pour les victimes de harcèlement.
En effet, le leader de la diffusion de parties de jeux vidéo en direct peine depuis des mois à endiguer une vague de harcèlement raciste et homophobe, qui consiste en des «hate raids» – «raids de haine» – contre certains créateurs, notamment des personnes non-blanches ou de la communauté LGBTQ.
Les harceleurs viennent sur les fenêtres de chat de leurs victimes, et les inondent d’insultes ou d’images choquantes – comme des croix gammées quand le joueur est juif, par exemple. Si le créateur les bannit, certains reviennent quand même en créant un nouveau compte.
Lutter contre le cyberharcèlement : « Suspicious User Detection »
Afin de rassurer les utilisateurs, Twitch ; propriété d’Amazon ; a annoncé l’introduction d’un nouvel outil pour détecter les utilisateurs malveillants. Baptisé «Suspicious User Detection », il sert à les identifier afin de pouvoir prendre des mesures contre eux. La plateforme de streaming de jeux vidéo explique que ce système est basé sur le machine-learning (apprentissage automatique issu de l’intelligence artificielle).
Des fraudeurs «possibles » ou « probables » : Une Fiabilité discutable
« La détection d’utilisateurs suspects, optimisée par l’apprentissage automatique, est là pour vous aider à identifier et à empêcher les fraudeurs suspects bannis d’une chaîne de discuter avant qu’ils ne puissent perturber votre stream. » – Twitch
Ce programme, fondé sur des technologies dites de «machine learning» (apprentissage automatisé des logiciels, une catégorie d’intelligence artificielle), distinguera les fraudeurs «probables» et «possibles». Dans le premier cas, leurs messages n’apparaîtront pas en public, seul le joueur et ses modérateurs les verront. A charge à eux de décider ensuite de les surveiller ou de les bannir.
«Aucun système de machine learning n’est fiable à 100%, «C’est pour cela que (l’outil) n’interdit pas automatiquement tous les potentiels fraudeurs.» Twitch.
Peu rassurant vous le direz, mais il s’agit notamment d’un grand pas en attendant l’introduction de mesures fortes et plus intransigeantes pour garantir la sécurité des streamers de la plateforme