Le troisième rapport sur la transparence de Xbox montre une approche évolutive pour créer des expériences de jeu plus sûres

Xbox a publié son troisième rapport de transparence. Ce rapport présente des données et des idées qui décrivent en détail les efforts déployés pour créer des expériences plus sûres, y compris l’importance combinée de la surveillance humaine et des capacités en évolution de l’intelligence artificielle qui s’appuient sur les fondements de notre travail de sécurité à ce jour.

La prévention de la toxicité avant qu’elle n’atteigne les joueurs est un élément crucial des efforts de Xbox pour fournir une plate-forme sûre et inclusive pour tous. Comme indiqué dans le rapport, 87 % (17,09 M) du total des mesures d’exécution au cours de cette période ont été prises grâce aux efforts proactifs de modération de Xbox.

Points saillants du rapport, couvrant la période de janvier à juin 2023 :

  • Mettre en évidence l’utilisation responsable de l’IA pour prévenir la toxicité. Y compris Community Sift, notre plateforme de modération de contenu basée sur l’intelligence artificielle et les connaissances humaines qui classe et filtre des milliards d’interactions humaines par an, ainsi que Turing Bletchley v3, le modèle multilingue qui analyse l’utilisateur-images générées pour s’assurer que seul le contenu approprié est affiché.
  • Nouvelles informations sur les volumes de contenu bloqués. Pour mieux mesurer le succès, Xbox inclut un ensemble de données appelé Toxicity Prevented. Au cours de cette dernière période, plus de 4,7 millions de contenus ont été bloqués avant d’atteindre les joueurs, y compris une augmentation de 135k (+39% par rapport à la période précédente) en imagerie grâce aux investissements dans l’utilisation de Turing Bletchley v3.
  • Accent accru sur la lutte contre le harcèlement. Xbox travaille activement pour identifier et traiter tout comportement abusif, y compris le discours de haine, l’intimidation et le harcèlement. En gardant cet objectif à l’esprit, nous avons apporté des améliorations aux processus internes pour accroître les efforts proactifs d’application de la loi en publiant 84 000 mesures proactives d’application de la loi en matière de harcèlement et d’intimidation (+95 % par rapport à la dernière période).
  • Comprendre le comportement des joueurs après une mise en garde. Xbox profite toujours de l’occasion pour en apprendre davantage sur la façon de mieux comprendre les normes communautaires avec les joueurs. À cette fin, l’équipe a analysé le comportement des joueurs après avoir reçu une mise en garde. Les premières observations indiquent que la majorité des joueurs ne violent pas les normes communautaires après avoir reçu une mise en garde et s’engagent positivement avec la communauté.

L’annonce est sur le blog Xbox Wire ici, qui note les mesures de sécurité récemment introduites par Xbox, telles que la fonction de signalement vocal et le système de frappe d’application de la loi. Le Wire détaille également les mesures prises dans le monde entier pour investir dans des expériences de jeu plus sûres, notamment le partenariat entre Minecraft et GamerSafer pour organiser la liste officielle des serveurs Minecraft, et le lancement des kits d’outils de sécurité Xbox Gaming pour le Japon et Singapour.

Le rapport complet sur la transparence est ici.